KR102049838B1 - Apparatus and method for transferring emotion based on vibrotactile - Google Patents
Apparatus and method for transferring emotion based on vibrotactile Download PDFInfo
- Publication number
- KR102049838B1 KR102049838B1 KR1020170163942A KR20170163942A KR102049838B1 KR 102049838 B1 KR102049838 B1 KR 102049838B1 KR 1020170163942 A KR1020170163942 A KR 1020170163942A KR 20170163942 A KR20170163942 A KR 20170163942A KR 102049838 B1 KR102049838 B1 KR 102049838B1
- Authority
- KR
- South Korea
- Prior art keywords
- user
- emotion
- information
- image
- recognized
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/7243—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
-
- H04M1/72547—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
- H04N7/147—Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/12—Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Computer Networks & Wireless Communication (AREA)
- User Interface Of Digital Computer (AREA)
- Telephone Function (AREA)
Abstract
본 발명은 진동촉각기반의 감성 전달 장치 및 방법을 개시한다. 본 발명의 일실시예에 따르면 감성 전달 장치는 사용자 음성 및 사용자 영상 중 적어도 어느 하나를 인식하는 사용자 인식부, 상기 인식된 사용자 음성 및 상기 인식된 사용자 영상 중 적어도 어느 하나를 분석하여 사용자 감정 정보를 생성하는 감정 정보 생성부, 상기 생성된 사용자 감정 정보에 기초하여 진동촉각 정보를 생성하는 진동촉각 정보 생성부 및 상기 인식된 사용자 음성 및 상기 인식된 사용자 영상 중 적어도 어느 하나와 상기 생성된 진동촉각 정보에 기초하여 사용자 감성 데이터를 생성하고, 통화 연결된 상대방 기기로 상기 생성된 사용자 감성 데이터를 전송하는 데이터 처리부를 포함할 수 있다.The present invention discloses an apparatus and method for transmitting vibration based emotion. According to an embodiment of the present invention, the emotion transmitting apparatus analyzes at least one of a user recognition unit that recognizes at least one of a user voice and a user image, and analyzes at least one of the recognized user voice and the recognized user image to obtain user emotion information. A generated emotion information generator, a vibration tactile information generator configured to generate vibration tactile information based on the generated user emotion information, and at least one of the recognized user voice and the recognized user image and the generated vibration tactile information It may include a data processing unit for generating the user emotion data based on the, and transmits the generated user emotion data to the other party device connected to the call.
Description
본 발명은 진동촉각을 이용하여 사용자의 감성을 전달하는 기술적 사상에 관한 것으로, 상대방에게 분석된 감정을 기반으로 생성된 진동촉각(vibrotactile)을 음성 및 영상과 함께 전달하는 장치 및 방법에 관한 것이다.The present invention relates to a technical idea of transmitting a user's emotion using a vibration tactile device, and relates to an apparatus and a method for transmitting a vibrotactile generated based on an emotion analyzed to the other party together with a voice and an image.
기술이 발달함에 따라 음성 중심의 전화 통화는 카메라와 모니터를 사용한 영상 통화로 발전할 수 있었다.As technology has advanced, voice-centric phone calls have evolved into video calls using cameras and monitors.
특히, 스마트폰의 등장은 영상통화의 보급화에 큰 기여를 했다. 이에 따라 사람들은 통화시 청각 정보화 시각 정보를 동시에 주고 받을 수 있게 되었다.In particular, the emergence of smart phones has contributed greatly to the spread of video calls. As a result, people can simultaneously send and receive auditory informational visual information during a call.
스마트폰은 진동자를 탑재하여 사용자에게 촉각적인 정보도 제공하는 햅틱 기능을 제공할 수 있다. 따라서, 스마트폰은 상대방에게 촉각적인 정보를 전달할 수 있는 환경을 제공할 수 있다. The smartphone may be equipped with a vibrator to provide a haptic function that also provides tactile information to the user. Therefore, the smart phone can provide an environment that can deliver tactile information to the other party.
스마트폰의 햅틱 기능은 스마트폰과 사용자를 교감시켜 주는 역할을 수행할 수 있다.The haptic function of a smartphone can play a role of interacting with a smartphone and a user.
다시 말해, 사용자가 자신의 스마트폰을 터치하거나 흔들었을 경우에만 스마트폰이 다양한 진동을 사용자에게 제공할 수 있다.In other words, the smartphone may provide various vibrations to the user only when the user touches or shakes his smartphone.
다만, 스마트폰은 사용자에게 터치 및 회전 동작에 따라 진동촉각을 제공할 뿐, 영상 통화 중 상대방의 감정 및 감성을 진동을 이용하여 상대방에게 전달할 수 없다는 문제점이 존재한다.However, there is a problem in that a smart phone provides a vibration tactile touch to a user according to a touch and rotation operation, and cannot transmit the emotion and emotion of the other party to the other party using vibration during a video call.
본 발명은 진동촉각기반의 감성 전달 장치 및 방법을 제공 하고자 한다.The present invention is to provide an apparatus and method for transmitting vibration based emotion.
본 발명은 사용자 감정을 영상 통화 시 획득되는 영상 및 음성 기초하여 분석하고, 분석된 사용자 감정을 진동촉각으로 전달하는 장치 및 방법을 제공하고자 한다.An object of the present invention is to provide an apparatus and method for analyzing user emotions based on video and audio obtained during a video call, and transmitting the analyzed user emotions to vibrotactile tactile senses.
본 발명은 시각 및 청각뿐만 아니라 촉각을 통하여 영상 통화의 몰입감을 증가시키는 장치 및 방법을 제공하고자 한다.An object of the present invention is to provide an apparatus and method for increasing the immersion of a video call through visual and auditory as well as touch.
본 발명은 음성통화, 영상통화, 게임 및 회의 등의 다양한 엔터테이먼트(entertainment)에서 감성 정보를 음성, 영상 및 진동촉각을 통하여 전달하는 장치 및 방법을 제공하고자 한다.An object of the present invention is to provide an apparatus and method for transmitting emotion information through voice, video, and vibration tactile in various entertainments such as voice call, video call, game, and conference.
본 발명의 일실시예에 따르면 감성 전달 장치는 사용자 음성 및 사용자 영상 중 적어도 어느 하나를 인식하는 사용자 인식부, 상기 인식된 사용자 음성 및 상기 인식된 사용자 영상 중 적어도 어느 하나를 분석하여 사용자 감정 정보를 생성하는 감정 정보 생성부, 상기 생성된 사용자 감정 정보에 기초하여 진동촉각 정보를 생성하는 진동촉각 정보 생성부 및 상기 인식된 사용자 음성 및 상기 인식된 사용자 영상 중 적어도 어느 하나와 상기 생성된 진동촉각 정보에 기초하여 사용자 감성 데이터를 생성하고, 통화 연결된 상대방 기기로 상기 생성된 사용자 감성 데이터를 전송하는 데이터 처리부를 포함할 수 있다. According to an embodiment of the present invention, the emotion transmitting apparatus analyzes at least one of a user recognition unit that recognizes at least one of a user voice and a user image, and analyzes at least one of the recognized user voice and the recognized user image to obtain user emotion information. A generated emotion information generator, a vibration tactile information generator configured to generate vibration tactile information based on the generated user emotion information, and at least one of the recognized user voice and the recognized user image and the generated vibration tactile information It may include a data processing unit for generating the user emotion data based on the, and transmits the generated user emotion data to the other party device connected to the call.
본 발명의 일실시예에 따르면 상기 사용자 인식부는, 상기 인식된 사용자 음성을 특정 버퍼 용량만큼 기록하고, 상기 감정 정보 생성부는, 상기 기록된 사용자 음성을 분석하여 제1 사용자 감정 정보를 생성할 수 있다.According to an embodiment of the present invention, the user recognizer may record the recognized user voice as much as a specific buffer capacity, and the emotion information generator may generate first user emotion information by analyzing the recorded user voice. .
본 발명의 일실시예에 따르면 상기 사용자 인식부는, 상기 인식된 사용자 영상을 프레임 단위로 분할하고, 상기 분할된 사용자 영상 각각에서 사용자 얼굴을 인식할 수 있다.According to an embodiment of the present invention, the user recognition unit may divide the recognized user image in units of frames and recognize a user face in each of the divided user images.
본 발명의 일실시예에 따르면 상기 사용자 인식부는, 상기 분할된 사용자 영상에서 제1 프레임의 사용자 영상과 제2 프레임의 사용자 영상을 결정하고, 상기 결정된 제1 프레임의 사용자 영상과 상기 결정된 제2 프레임의 사용자 영상을 비교하여 상기 인식된 사용자 얼굴의 표정 변화를 인식할 수 있다.According to an embodiment of the present invention, the user recognizer determines a user image of a first frame and a user image of a second frame from the divided user image, and determines the user image of the determined first frame and the determined second frame. By comparing the user image of the user can recognize the facial expression change of the recognized user's face.
본 발명의 일실시예에 따르면 상기 감정 정보 생성부는, 상기 결정된 제1 프레임의 사용자 영상을 분석하여 제2 사용자 감정 정보를 생성할 수 있다.According to an embodiment of the present invention, the emotion information generation unit may generate second user emotion information by analyzing the user image of the determined first frame.
본 발명의 일실시예에 따르면 상기 감정 정보 생성부는, 상기 분할된 사용자 영상에서 상기 제2 프레임의 사용자 영상의 존재 여부를 판단하고, 상기 제2 프레임의 사용자 영상이 존재할 경우, 상기 인식된 표정 변화를 분석하여 상기 생성된 제2 사용자 감정 정보를 업데이트할 수 있다.According to an embodiment of the present invention, the emotion information generator determines whether a user image of the second frame exists in the divided user image, and when the user image of the second frame exists, the recognized facial expression change. May be analyzed to update the generated second user emotion information.
본 발명의 일실시예에 따르면 상기 감정 정보 생성부는, 상기 생성된 제1 사용자 감정 정보 및 상기 업데이트된 제2 사용자 감정 정보를 포함하는 상기 사용자 감정 정보를 생성할 수 있다.According to an embodiment of the present invention, the emotion information generation unit may generate the user emotion information including the generated first user emotion information and the updated second user emotion information.
본 발명의 일실시예에 따르면 상기 진동촉각 정보 생성부는, 상기 생성된 제1 사용자 감정 정보에 기초하여 제1 진동촉각 정보를 생성하고, 상기 데이터 처리부는, 상기 인식된 사용자 음성 및 상기 생성된 제1 진동촉각 정보에 기초하여 제1 사용자 감성 데이터를 생성하고, 상기 상대방 기기로 상기 생성된 제1 사용자 감성 데이터를 전송할 수 있다.According to an embodiment of the present invention, the vibrotactile information generation unit generates first vibrotactile information based on the generated first user emotion information, and the data processor generates the recognized user voice and the generated agent. The first user emotion data may be generated based on the first vibration tactile information, and the generated first user emotion data may be transmitted to the counterpart device.
본 발명의 일실시예에 따르면 상기 진동촉각 정보 생성부는, 상기 업데이트된 제2 사용자 감정 정보에 기초하여 제2 진동촉각 정보를 생성하고, 상기 데이터 처리부는, 상기 인식된 사용자 영상 및 상기 생성된 제2 진동촉각 정보에 기초하여 제2 사용자 감성 데이터를 생성하고, 상기 상대방 기기로 상기 생성된 제2 사용자 감성 데이터를 전송할 수 있다.According to an embodiment of the present invention, the vibrotactile information generation unit generates second vibrotactile information based on the updated second user emotion information, and the data processor generates the recognized user image and the generated agent. The second user emotion data may be generated based on the vibration tactile information, and the generated second user emotion data may be transmitted to the counterpart device.
본 발명의 일실시예에 따르면 상기 진동촉각 정보 생성부는, 상기 생성된 제1 사용자 감정 정보 및 상기 업데이트된 제2 사용자 감정 정보에 기초하여 제3 진동촉각 정보를 생성하고, 상기 데이터 처리부는, 상기 인식된 사용자 음성, 상기 인식된 사용자 영상 및 상기 생성된 제2 진동촉각 정보에 기초하여 제3 사용자 감성 데이터를 생성하고, 상기 상대방 기기로 상기 생성된 제3 사용자 감성 데이터를 전송할 수 있다.According to an embodiment of the present invention, the vibration tactile information generation unit generates third vibration tactile information based on the generated first user emotion information and the updated second user emotion information, and the data processor is configured to: The third user emotion data may be generated based on the recognized user voice, the recognized user image, and the generated second vibration tactile information, and the third user emotion data may be transmitted to the counterpart device.
본 발명의 일실시예에 따르면 감성 전달 방법은 사용자 인식부에서, 사용자 음성 및 사용자 영상 중 적어도 어느 하나를 인식하는 단계, 감정 정보 생성부에서, 상기 인식된 사용자 음성 및 상기 인식된 사용자 영상 중 적어도 어느 하나를 분석하여 사용자 감정 정보를 생성하는 단계, 진동촉각 정보 생성부에서, 상기 생성된 사용자 감정 정보에 기초하여 진동촉각 정보를 생성하는 단계 및 데이터 처리부에서, 상기 인식된 사용자 음성 및 상기 인식된 사용자 영상 중 적어도 어느 하나와 상기 생성된 진동촉각 정보에 기초하여 사용자 감성 데이터를 생성하고, 통화 연결된 상대방 기기로 상기 생성된 사용자 감성 데이터를 전송하는 단계를 포함할 수 있다.According to an embodiment of the present invention, in the emotion transmitting method, at least one of a user voice and a user image is recognized by a user recognizer, and at the emotion information generator, at least one of the recognized user voice and the recognized user image. Generating any user emotion information by analyzing any one, generating the vibration tactile information based on the generated user emotion information, and generating, by the data processor, the recognized user voice and the recognized user The method may include generating user emotion data based on at least one of user images and the generated vibration tactile information, and transmitting the generated user emotion data to a counterpart connected device.
본 발명의 일실시예에 따르면 감성 전달 방법은 상기 사용자 인식부에서, 상기 인식된 사용자 음성을 특정 버퍼 용량만큼 기록하는 단계, 상기 사용자 인식부에서, 상기 인식된 사용자 영상을 프레임 단위로 분할하고, 상기 분할된 사용자 영상 각각에서 사용자 얼굴을 인식하는 단계, 상기 사용자 인식부에서, 상기 분할된 사용자 영상에서 제1 프레임의 사용자 영상과 제2 프레임의 사용자 영상을 결정하는 단계 및 상기 사용자 인식부에서, 상기 결정된 제1 프레임의 사용자 영상과 상기 결정된 제2 프레임의 사용자 영상을 비교하여 상기 인식된 사용자 얼굴의 표정 변화를 인식하는 단계를 포함할 수 있다.According to an embodiment of the present invention, in the emotion delivery method, recording the recognized user voice by a specific buffer capacity in the user recognition unit, in the user recognition unit, the recognized user image is divided in units of frames, Recognizing a user face in each of the divided user images, determining, by the user recognition unit, a user image of a first frame and a user image of a second frame in the divided user image, and in the user recognition unit, And comparing the user image of the determined first frame with the user image of the determined second frame to recognize a change in facial expression of the recognized user's face.
본 발명의 일실시예에 따르면 감성 전달 방법은 상기 감정 정보 생성부에서, 상기 기록된 사용자 음성을 분석하여 제1 사용자 감정 정보를 생성하는 단계, 상기 감정 정보 생성부에서, 상기 결정된 제1 프레임의 사용자 영상을 분석하여 제2 사용자 감정 정보를 생성하는 단계, 상기 감정 정보 생성부에서, 상기 분할된 사용자 영상에서 상기 제2 프레임의 사용자 영상의 존재 여부를 판단하는 단계, 상기 제2 프레임의 사용자 영상이 존재할 경우, 상기 인식된 표정 변화를 분석하여 상기 생성된 제2 사용자 감정 정보를 업데이트하는 단계 및 상기 생성된 제1 사용자 감정 정보 및 상기 업데이트된 제2 사용자 감정 정보를 포함하는 상기 사용자 감정 정보를 생성하는 단계를 포함할 수 있다.According to an embodiment of the present invention, in the emotion delivery method, generating the first user emotion information by analyzing the recorded user voice in the emotion information generator, and in the emotion information generator, Generating second user emotion information by analyzing a user image, determining, by the emotion information generator, whether a user image of the second frame exists in the divided user image, and a user image of the second frame If present, analyzing the recognized facial expression change to update the generated second user emotion information and the user emotion information including the generated first user emotion information and the updated second user emotion information It may comprise the step of generating.
본 발명의 일실시예에 따르면, 사용자 감정을 영상 통화 시 획득되는 영상 및 음성 기초하여 분석하고, 분석된 사용자 감정을 진동촉각으로 전달할 수 있다.According to an embodiment of the present invention, the user emotion may be analyzed based on the video and the voice acquired during the video call, and the analyzed user emotion may be transmitted to the vibrotactile.
본 발명의 일실시예에 따르면, 시각 및 청각뿐만 아니라 촉각을 통하여 영상 통화의 몰입감을 증가시킬 수 있다.According to an embodiment of the present invention, the immersion of the video call can be increased through not only visual and auditory but also tactile senses.
본 발명의 일실시예에 따르면, 음성통화, 영상통화, 게임 및 회의 등의 다양한 엔터테이먼트에서 감성 정보를 음성, 영상 및 진동촉각을 통하여 전달할 수 있다.According to an embodiment of the present invention, emotional information may be transmitted through voice, video, and vibration tactile in various entertainments such as voice call, video call, game, and conference.
도 1은 본 발명의 일실시예에 따른 감성 전달 장치의 블록도를 도시한다.
도 2 내지 도 5는 본 발명의 일실시예에 따른 감성 전달 방법과 관련된 흐름도를 도시한다.1 is a block diagram of an emotional delivery device according to an embodiment of the present invention.
2 to 5 show a flow diagram related to the emotional delivery method according to an embodiment of the present invention.
이하, 본 문서의 다양한 실시 예들이 첨부된 도면을 참조하여 기재된다.Hereinafter, various embodiments of the present disclosure will be described with reference to the accompanying drawings.
실시 예 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다.The examples and terms used therein are not intended to limit the techniques described in this document to specific embodiments, but should be understood to include various modifications, equivalents, and / or alternatives to the examples.
하기에서 다양한 실시 예들을 설명에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.In the following description of the various embodiments, when it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted.
그리고 후술되는 용어들은 다양한 실시 예들에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In addition, terms to be described below are terms defined in consideration of functions in various embodiments, and may vary according to a user's or operator's intention or custom. Therefore, the definition should be made based on the contents throughout the specification.
도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.In connection with the description of the drawings, similar reference numerals may be used for similar components.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.Singular expressions may include plural expressions unless the context clearly indicates otherwise.
본 문서에서, "A 또는 B" 또는 "A 및/또는 B 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다.In this document, expressions such as "A or B" or "at least one of A and / or B" may include all possible combinations of items listed together.
"제1," "제2," "첫째," 또는 "둘째," 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다.Expressions such as "first," "second," "first," or "second," etc. may modify the components, regardless of order or importance, to distinguish one component from another. Used only and do not limit the components.
어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다.When any (eg first) component is said to be "connected (functionally or communicatively)" or "connected" to another (eg second) component, the other component is said other It may be directly connected to the component or may be connected through another component (for example, the third component).
본 명세서에서, "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, 하드웨어적 또는 소프트웨어적으로 "~에 적합한," "~하는 능력을 가지는," "~하도록 변경된," "~하도록 만들어진," "~를 할 수 있는," 또는 "~하도록 설계된"과 상호 호환적으로(interchangeably) 사용될 수 있다.In this specification, "configured to" is modified to have the ability to "suitable," "to," "to," depending on the context, for example, hardware or software. Can be used interchangeably with "made to", "doing", or "designed to".
어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다.In some situations, the expression “device configured to” may mean that the device “can” together with other devices or components.
예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU 또는 application processor)를 의미할 수 있다.For example, the phrase “processor configured (or configured to) perform A, B, and C” may be implemented by executing a dedicated processor (eg, an embedded processor) to perform its operation, or one or more software programs stored in a memory device. It may mean a general purpose processor (eg, a CPU or an application processor) capable of performing the corresponding operations.
또한, '또는' 이라는 용어는 배타적 논리합 'exclusive or' 이기보다는 포함적인 논리합 'inclusive or' 를 의미한다.In addition, the term 'or' means inclusive or 'inclusive or' rather than 'exclusive or'.
즉, 달리 언급되지 않는 한 또는 문맥으로부터 명확하지 않는 한, 'x가 a 또는 b를 이용한다' 라는 표현은 포함적인 자연 순열들(natural inclusive permutations) 중 어느 하나를 의미한다.In other words, unless stated otherwise or unclear from the context, the expression 'x uses a or b' means any one of natural inclusive permutations.
도 1은 본 발명의 일실시예에 따른 감성 전달 장치의 블록도를 도시한다.1 is a block diagram of an emotional delivery device according to an embodiment of the present invention.
구체적으로, 도 1은 본 발명의 일실시예에 따른 감성 전달 장치의 구성 요소들을 예시한다. 이하 사용되는 '. 부', '. 기' 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어, 또는, 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Specifically, Figure 1 illustrates the components of the emotional delivery device according to an embodiment of the present invention. Used below. Wealth, ' The term 'herein' refers to a unit for processing at least one function or operation, which may be implemented by hardware or software, or a combination of hardware and software.
도 1을 참고하면, 감성 전달 장치(100)는 사용자 인식부(110), 감정 정보 생성부(120), 진동촉각 정보 생성부(130) 및 데이터 처리부(140)를 포함한다.Referring to FIG. 1, the
예를 들어, 감성 전달 장치(100)는 스마트폰 또는 사용자 단말 장치이거나, 스마트폰 또는 사용자 단말 장치와 결합되는 외부 장치일 수 있다.For example, the
본 발명의 일실시예에 따르면 사용자 인식부(110)는 사용자 음성 및 사용자 영상 중 적어도 어느 하나를 인식한다.According to an embodiment of the present invention, the user recognizer 110 recognizes at least one of a user voice and a user image.
본 발명의 일실시예에 따르면 사용자 인식부(110)는 인식된 사용자 음성을 특정 버퍼 용량만큼 기록한다.According to an embodiment of the present invention, the
일례로, 사용자 인식부(110)는 마이크로 폰(microphone) 및 카메라를 포함하고, 마이크로 폰을 통하여 사용자 음성을 인식하고, 카메라를 통하여 사용자 영상을 인식할 수 있다.For example, the
본 발명의 일실시예에 따르면 사용자 인식부(110)는 카메라를 통하여 인식된 사용자 영상을 프레임 단위로 분할하고, 분할된 사용자 영상 각각에서 사용자 얼굴을 인식한다.According to an embodiment of the present invention, the
예를 들어, 분할된 사용자 영상은 제1 프레임의 사용자 영상, 제2 프레임의 사용자 영상 및 제n 프레임의 사용자 영상을 포함할 수 있다. 여기서, n은 임의의 수로 사용자의 설정에 기초하여 변경될 수 있다.For example, the divided user image may include a user image of a first frame, a user image of a second frame, and a user image of an nth frame. Here, n may be changed to any number based on the user's setting.
일례로, 사용자 인식부(110)는 분할된 사용자 영상에서 제1 프레임의 사용자 영상과 제2 프레임의 사용자 영상을 결정하고, 결정된 제1 프레임의 사용자 영상과 결정된 제2 프레임의 사용자 영상을 비교하여 인식된 사용자 얼굴의 표정 변화를 인식할 수 있다.For example, the
예를 들어, 사용자 인식부(110)는 영상을 구성하는 사진 단위인 프레임을 이용하여 사용자 영상을 인식한다. 사용자 영상은 주로 1초에 24~60개의 사진을 연속으로 출력하는 형태이다. 사용자 인식부(110)는 사용자 영상의 사용자 얼굴에서 표정을 1 프레임 단위로 나누어 표정 인식을 통해 감정 인식을 수행한다.For example, the
본 발명의 일실시예에 따르면 감정 정보 생성부(120)는 사용자 음성 및 사용자 영상 중 적어도 어느 하나를 분석하여 사용자 감정 정보를 생성한다.According to an embodiment of the present invention, the
일례로, 감정 정보 생성부(120)는 특정 버퍼 용량만큼 기록된 사용자 음성을 분석하여 제1 사용자 감정 정보를 생성한다.For example, the
예를 들어, 특정 버퍼 용량은 감정 정보 생성부(120)가 사용자 음성을 분석하여 제1 사용자 감정 정보를 생성하기 위한 기준치에 해당할 수 있다.For example, the specific buffer capacity may correspond to a reference value for generating the first user emotion information by analyzing the user voice by the
본 발명의 일실시예에 따르면 감정 정보 생성부(120)는 결정된 제1 프레임의 사용자 영상을 분석하여 제2 사용자 감정 정보를 생성한다.According to an embodiment of the present invention, the emotion
일례로, 감정 정보 생성부(120)는 분할된 사용자 영상에서 제2 프레임의 사용자 영상의 존재 여부를 판단할 수 있다.For example, the
본 발명의 일실시예에 따르면 감정 정보 생성부(120)는 제2 프레임의 사용자 영상이 존재할 경우, 인식된 표정 변화를 분석하여 생성된 제2 사용자 감정 정보를 업데이트한다.According to an embodiment of the present invention, when the user image of the second frame exists, the
예를 들어, 감정 정보 생성부(120)는 사용자 영상을 하나의 프레임 단위로 분할하여, 분할된 사용자 영상에서 사용자의 얼굴이 존재하는지 여부를 판단한다.For example, the
또한, 감정 정보 생성부(120)는 사용자의 얼굴이 존재할 경우, 사용자 얼굴의 표정을 판단하고, 사용자 얼굴을 판단한 프레임과 비교 대상 프레임의 사용자 영상에서 눈의 모양 및 입의 모양 등을 비교하여 표정 변화를 인식한다.In addition, when the user's face is present, the emotion
일례로, 감정 정보 생성부(120)는 사용자 영상의 사용자 얼굴에서 표정 변화에 기초하여 제2 사용자 감정 정보를 생성한다. 또한, 제2 사용자 감정 정보는 표정 감정 인식에 이용될 수 있다.For example, the
본 발명의 일실시예에 따르면 감정 정보 생성부(120)는 생성된 제1 사용자 감정 정보 및 업데이트된 제2 사용자 감정 정보를 포함하는 사용자 감정 정보를 생성한다.According to an embodiment of the present invention, the
일례로, 감정 정보 생성부(120)는 사용자 음성에서 음성 주파수 변화에 기초하여 제1 사용자 감정 정보를 생성한다. 또한, 제1 사용자 감정 정보는 음성 감정 인식에 이용될 수 있다.For example, the
일례로, 감정 정보 생성부(120)는 음성 분석 기반의 제1 사용자 감정 정보 및 영상 분석 기반의 제2 사용자 감정 정보를 포함하는 사용자 감정 정보를 생성한다.For example, the
본 발명의 일실시예에 따르면 진동촉각 정보 생성부(130)는 사용자 감정 정보에 기초하여 진동촉각 정보를 생성한다.According to an embodiment of the present invention, the vibration tactile
일례로, 진동촉각 정보 생성부(130)는 상대방 기기와 통신 연결 시, 상대방 기기로 전달하기 위하여 인식된 사용자 음성 및 사용자 영상 기초하여 분석된 사용자 감정 정보에 기초하여 진동촉각 정보를 생성한다.For example, the vibration tactile
예를 들어, 진동촉각 정보는 2003년 MacLean 등에 의하여 제안된 개념인 햅틱 아이콘으로서, 추상적인 의미를 전달하기 위하여 만들어진 체계를 갖는 진동신호(Vibrotactile Signal)를 포함한다.For example, the vibrotactile information is a haptic icon, a concept proposed by MacLean et al. In 2003, and includes a vibrotactile signal having a system made to convey an abstract meaning.
본 발명의 일실시예에 따르면 진동촉각 정보 생성부(130)는 음성 분석 기반의 제1 사용자 감정 정보에 기초하여 제1 진동촉각 정보를 생성한다.According to an embodiment of the present invention, the vibration tactile
일례로, 진동촉각 정보 생성부(130)는 영상 분석 기반의 제2 사용자 감정 정보에 기초하여 제2 진동촉각 정보를 생성한다.For example, the vibration
본 발명의 일실시예에 따르면 진동촉각 정보 생성부(130)는 제1 사용자 감정 정보 및 제2 사용자 감정 정보에 기초하여 제3 진동촉각 정보를 생성한다.According to an embodiment of the present invention, the vibration tactile
본 발명의 일실시예에 따르면 데이터 처리부(140)는 사용자 음성 및 사용자 영상 중 적어도 어느 하나와 진동촉각 정보에 기초하여 사용자 감성 데이터를 생성한다.According to an embodiment of the present invention, the
예를 들어, 사용자 감성 데이터는 제1 사용자 감성 데이터, 제2 사용자 감성 데이터 및 제3 사용자 감성 데이터를 포함할 수 있다.For example, the user emotion data may include first user emotion data, second user emotion data, and third user emotion data.
본 발명의 일실시예에 따르면 데이터 처리부(140)는 통화 연결된 상대방 기기로 생성된 사용자 감성 데이터를 전송한다.According to an embodiment of the present invention, the
일례로, 데이터 처리부(140)는 사용자 음성 및 제1 진동촉각 정보에 기초하여 제1 사용자 감성 데이터를 생성하고, 상대방 기기로 제1 사용자 감성 데이터를 전송한다.For example, the
본 발명의 일실시예에 따르면 데이터 처리부(140)는 사용자 영상 및 제2 진동촉각 정보에 기초하여 제2 사용자 감성 데이터를 생성하고, 상대방 기기로 제2 사용자 감성 데이터를 전송할 수 있다.According to an embodiment of the present invention, the
본 발명의 일실시예에 따르면 데이터 처리부(140)는 사용자 음성, 사용자 영상 및 제2 진동촉각 정보에 기초하여 제3 사용자 감성 데이터를 생성하고, 상대방 기기로 제3 사용자 감성 데이터를 전송한다.According to an embodiment of the present invention, the
일례로, 진동촉각 정보는 상대방 기기에 전달되어, 상대방 기기에서 진동촉각 정보에 기초하는 진동을 발생시키도록 활용될 수 있다.For example, the vibration tactile information may be transmitted to the counterpart device and used to generate a vibration based on the vibration tactile information in the counterpart device.
본 발명의 일실시예에 따르면, 감성 전달 장치는 사용자 감정을 영상 통화 시 획득되는 영상 및 음성 기초하여 분석하고, 분석된 사용자 감정을 진동촉각으로 전달할 수 있다.According to an embodiment of the present invention, the emotion transmitting apparatus may analyze the user emotion based on the image and the voice acquired during the video call, and transmit the analyzed user emotion as the vibrotactile.
본 발명의 일실시예에 따르면, 감성 전달 장치는 시각 및 청각뿐만 아니라 촉각을 통하여 영상 통화의 몰입감을 증가시킬 수 있다.According to an embodiment of the present invention, the emotional delivery device may increase the immersion of the video call through the sense of touch as well as visual and auditory.
본 발명의 일실시예에 따르면 데이터 처리부(140)는 통신부(150)를 통하여 사용자 감성 데이터를 상대방 기기로 전송할 수 있다.According to an embodiment of the present invention, the
본 발명의 다른 실시예에 따르면 감성 전달 장치(100)는 통신부(150), 메모리(160) 및 제어부(170)를 포함할 수 있다.According to another embodiment of the present invention, the
본 발명의 다른 실시예에 따르면 통신부(150)는 기저 대역 신호를 RF대역 신호로 상향 변환한 후 안테나를 통해 송신하고, 안테나를 통해 수신되는 RF 대역 신호를 기저 대역 신호로 하향 변환한다.According to another embodiment of the present invention, the
예를 들어, 통신부(150)는 송신 필터, 수신 필터, 증폭기, 믹서(mixer), 오실레이터(oscillator), DAC(digital to analog convertor), ADC(analog to digital convertor) 등을 포함할 수 있다.For example, the
또한, 통신부(150)는 서로 다른 주파수 대역의 신호들을 처리하기 위해 서로 다른 통신 모듈들을 포함할 수 있다.In addition, the
예를 들어, 서로 다른 통신 규격들은 블루투스 저 에너지(Bluetooth low energy, BLE), Wi-Fi(Wireless Fidelity), WiGig(WiFi Gigabyte), 셀룰러 네트워크(예: LTE(Long Term Evolution)) 등을 포함할 수 있다.For example, different communication standards may include Bluetooth low energy (BLE), Wireless Fidelity (Wi-Fi), Wi-Fi Gigabyte (WiGig), cellular networks (e.g. Long Term Evolution), etc. Can be.
또한, 서로 다른 주파수 대역들은 극고단파(super high frequency, SHF)(예: 2.5GHz, 5Ghz) 대역, mm파(millimeter wave)(예: 60GHz) 대역을 포함할 수 있다.In addition, different frequency bands may include a super high frequency (SHF) (eg 2.5 GHz, 5 Ghz) band and a millimeter wave (eg 60 GHz) band.
본 발명의 다른 실시예에 따르면 메모리(160)는 감성 전달 장치(100)의 동작을 위한 기본 프로그램, 응용 프로그램, 설정 정보 등의 데이터를 저장한다.According to another exemplary embodiment of the present invention, the
특히, 메모리(160)는 다양한 실시 예들에 따라 파일을 관리하기 위한 적어도 하나의 명령어 집합(예: 어플리케이션)을 저장할 수 있다.In particular, the
일례로, 메모리(160)는 제어부(170)의 요청에 따라 저장된 데이터를 제공할 수 있고, 메모리(160)는 휘발성 및/또는 비휘발성 메모리 및 버퍼를 포함할 수 있다.For example, the
예를 들어, 메모리(160)는 감성 전달 장치(100)의 적어도 하나의 다른 구성요소에 관련된 명령 또는 데이터를 저장할 수 있다.For example, the
메모리(160)는 감성 전달 장치(100)에 포함되는 것으로, '내부 저장소'또는 '내부 저장 장치'로 지칭될 수 있다.The
예를 들어, 메모리(160)는 사용자 음성 및 사용자 영상을 버퍼에 저장할 수 있다.For example, the
본 발명의 다른실시예에 따르면 제어부(170)는 사용자 인식부(110), 감정 정보 생성부(120), 진동촉각 정보 생성부(130) 및 데이터 처리부(140)의 동작을 제어할 수 있다.According to another embodiment of the present invention, the
예를 들어, 제어부(170)는 감성 전달 장치(100)의 적어도 하나의 다른 구성 요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다.For example, the
예를 들어, 제어부(170)는 운영 체제 또는 응용 프로그램을 구동하여 제어부(170)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다.For example, the
예를 들어, 제어부(170)는 SOC(system on chip)로 구현될 수 있다. 제어부(170)는 다른 구성요소들(예: 비휘발성 메모리) 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드하여 처리하고, 결과 데이터를 비휘발성 메모리에 저장할 수 있다.For example, the
또한, 제어부(170)는 진동자를 제어하여 진동을 발생 시킬 수 있다.In addition, the
예를 들어, 제어부(170)는 사용자 감정 정보에 기초하여 생성된 진동촉각 정보에 기초하여 진동촉각을 발생할 수 있다.For example, the
예를 들어, 제어부(170)는 사용자 음성을 특정 버퍼 용량만큼 저장하도록 메모리(160)를 제어할 수 있다.For example, the
예를 들어, 제어부(170)는 감성 전달 장치(100)가 이하 도 2 내지 도 5 등에 도시된 절차를 수행하도록 제어할 수 있다.For example, the
본 발명의 일실시예에 따르면, 감성 전달 장치(100)는 음성통화, 영상통화, 게임 및 회의 등의 다양한 엔터테이먼트(entertainment)에서 감성 정보를 음성, 영상 및 진동촉각을 통하여 전달할 수 있다.According to an embodiment of the present invention, the
도 2는 본 발명의 일실시예에 따른 감성 전달 방법과 관련된 흐름도를 도시한다.2 is a flowchart illustrating an emotional delivery method according to an embodiment of the present invention.
구체적으로, 도 2는 감성 전달 방법이 상대방 기기와 영상 통화 시 획득되는 사용자 음성, 영상을 분석하여 진동촉각 정보를 생성하고, 사용자 음성, 영상을 진동촉각 정보와 동시에 전송하는 절차를 예시한다.In detail, FIG. 2 illustrates a procedure of generating a vibration tactile information by analyzing a user voice and an image acquired during a video call with the counterpart device, and simultaneously transmitting the user voice and the image with the vibration tactile information.
도 2를 참고하면, 단계(201)에서 감성 전달 방법은 사용자 음성 및 사용자 영상을 인식한다. 즉, 감성 전달 방법은 상대방 기기와 영상 통화 또는 음성 통화 연결 시 마이크로폰을 이용하여 사용자 음성을 인식하고, 카메라를 통하여 사용자 영상을 인식한다.Referring to FIG. 2, in
단계(202)에서 감성 전달 방법은 사용자 감정 정보를 생성한다. 즉, 감성 전달 방법은 사용자 음성 및 사용자 영상 중 적어도 어느 하나를 분석하여 사용자 감정 정보를 생성한다.In
단계(203)에서 감성 전달 방법은 진동촉각 정보를 생성한다. 즉, 감성 전달 방법은 사용자 감정 정보에 기초하여 진동촉각 정보를 생성한다.In
단계(204)에서 감성 전달 방법은 상대방 기기로 사용자 감성 데이터를 전송한다. 즉, 감성 전달 방법은 사용자 음성 및 사용자 영상 중 적어도 어느 하나와 진동촉각 정보에 기초하여 사용자 감성 데이터를 생성하고, 생성된 사용자 감성 데이터를 상대방 기기로 전송한다.In step 204, the emotion delivery method transmits user emotion data to the counterpart device. That is, the emotion transmission method generates user emotion data based on at least one of user voice and user image and vibration tactile information, and transmits the generated user emotion data to the counterpart device.
도 3은 본 발명의 일실시예에 따른 감성 전달 방법과 관련된 흐름도를 도시한다.3 is a flowchart illustrating a method of transmitting emotion according to an embodiment of the present invention.
구체적으로, 도 3은 감성 전달 방법이 사용자 음성 및 사용자 영상에 기초하여 분석된 사용자 감정 정보를 이용하여 진동촉각 정보를 생성하고, 사용자 음성 및 사용자 영상과 진동촉각 정보를 상대방 기기로 전송하는 절차를 예시한다.In detail, FIG. 3 illustrates a procedure in which the method of transmitting emotion generates vibration tactile information using user emotion information analyzed based on user voice and user image, and transmits user voice and user image and vibration tactile information to the counterpart device. To illustrate.
도 3을 참고하면, 단계(301)에서 감성 전달 방법은 상대방 기기와 연결한다. 즉, 감성 전달 방법은 상대방 기기와 음성 통화 또는 영상 통화를 연결하고, 마이크로폰을 통하여 사용자 음성을 인식하고, 카메라를 통하여 사용자 영상을 인식한다.Referring to FIG. 3, in
단계(302)에서 감성 전달 방법은 음성 채널을 통하여 음성 기반 감정분석을 수행한다. 즉, 감성 전달 방법은 마이크로폰을 통하여 인식된 사용자 음성에 기초하여 사용자 감정을 분석한다. 여기서, 감성 전달 방법은 사용자 음성의 주파수 변화에 기초하여 사용자 감정을 분석할 수 있다.In
단계(303)에서 감성 전달 방법은 영상 채널을 통하여 영상 기반 감정분석을 수행한다. 즉, 감성 전달 방법은 카메라를 통하여 인식된 사용자 영상에 기초하여 사용자 감정을 분석한다. 여기서, 감성 전달 방법은 사용자 영상의 얼굴에 기초하여 사용자 감정을 분석할 수 있다.In
단계(304)에서 감성 전달 방법은 음성 기반 감정 분석 및 영상 기반 감정 분석을 기초하여 진동촉각 정보를 생성한다. 즉, 감성 전달 방법은 사용자 음성의 분석 및 사용자 영상의 분석에 기초하여 각각 생성되는 사용자 감정 정보에 기초하여 진동촉각 정보를 각각 생성하고, 각각 생성된 진동촉각 정보를 종합하여 진동촉각 정보를 생성할 수 있다.In
단계(305)에서 감성 전달 방법은 상대방으로 음성, 영상 및 촉각 정보를 전송한다. 즉, 감성 전달 방법은 통화 연결된 상대방 기기로 사용자 음성, 사용자 영상 및 음성 및 영상의 분석에 기초하여 생성된 촉각 정보를 전송한다.In
본 발명의 일실시예에 따르면, 감성 전달 방법은 사용자 감정을 영상 통화 시 획득되는 영상 및 음성 기초하여 분석하고, 분석된 사용자 감정을 진동촉각으로 전달할 수 있다.According to an embodiment of the present invention, the emotion delivery method may analyze the user emotion based on the image and the voice acquired during the video call, and transmit the analyzed user emotion as the vibrotactile.
도 4는 본 발명의 일실시예에 따른 감성 전달 방법과 관련된 흐름도를 도시한다.4 is a flowchart illustrating an emotional delivery method according to an embodiment of the present invention.
구체적으로, 도 4는 감성 전달 방법이 사용자 음성과 사용자 음성에 기초하여 분석된 사용자 감정 정보를 이용하여 진동촉각 정보를 생성하여 감성 데이터를 전송하는 절차를 예시한다.Specifically, FIG. 4 illustrates a procedure in which the emotion transmission method generates vibration tactile information using the user emotion information analyzed based on the user voice and the user voice and transmits the emotion data.
도 4를 참고하면, 단계(401)에서 감성 전달 방법은 사용자 음성을 인식한다. 즉, 감성 전달 방법은 상대방 기기와 통화 연결 시, 마이크로폰을 통하여 사용자 음성을 인식한다.Referring to FIG. 4, in
단계(402)에서 감성 전달 방법은 특정 버퍼 용량만큼 사용자 음성을 기록되었는지 판단한다. 즉, 감성 전달 방법은 단계(401)에서 마이크로폰을 통하여 인식된 사용자 음성이 사용자 음성 기반하여 사용자 감정을 판단하기 위한 기준값 이상 확보되었는지 여부를 판단한다.In
일례로, 감성 전달 방법은 특정 버퍼 용량만큼 사용자 음성이 버퍼에 기록될 경우, 단계(403)로 진행하고, 특정 버퍼 용량만큼 사용자 음성이 버퍼에 기록되지 않을 경우, 단계(401)로 돌아가서 사용자 음성을 버퍼에 더 기록한다.In one example, the emotional delivery method proceeds to step 403 if the user voice is recorded in the buffer by a specific buffer capacity, and returns to step 401 if the user voice is not recorded in the buffer by the specific buffer capacity. Write more to the buffer.
단계(403)에서 감성 전달 방법은 버퍼에 저장된 사용자 음성을 분석하여 제1 사용자 감정 정보를 생성한다. 즉, 감성 전달 방법은 사용자 음성의 주파수 대역 변화에 기초하여 사용자 음성을 분석하고, 분석된 사용자 음성에 기초하여 사용자 감정 정보를 생성한다.In
단계(404)에서 감성 전달 방법은 제1 사용자 감정 정보에 기초하여 진동촉각 정보를 생성한다. 즉, 감성 전달 방법은 사용자 음성 분석에 기초하여 생성된 제1 사용자 감정 정보에 기초하여 제1 진동촉각 정보를 생성한다.In
단계(405)에서 감성 전달 방법은 사용자 음성과 진동촉각 정보를 전송한다. 즉, 감성 전달 방법은 사용자 음성 및 제1 진동촉각 정보에 기초하여 제1 사용자 감성 데이터를 생성하고, 생성된 제1 사용자 감성 데이터를 상대방 기기로 전송한다.In
도 5는 본 발명의 일실시예에 따른 감성 전달 방법과 관련된 흐름도를 도시한다.5 is a flowchart illustrating an emotional delivery method according to an embodiment of the present invention.
구체적으로, 도 5는 감성 전달 방법이 사용자 영상을 분석하여 진동촉각 정보를 생성하고, 상대방 기기로 생성된 진동촉각 정보를 사용자 영상과 동시에 전송하는 절차를 예시한다.In detail, FIG. 5 illustrates a procedure in which the method of transmitting emotion generates vibration tactile information by analyzing the user image and simultaneously transmits the vibration tactile information generated by the counterpart device with the user image.
도 5를 참고하면, 단계(501)에서 감성 전달 방법은 사용자 영상을 인식 및 기록한다. 즉, 감성 전달 방법은 상대방 기기와 영상 통화 개시할 시, 사용자 영상을 인식하여 인식된 사용자 영상을 기록한다.Referring to FIG. 5, in
단계(502)에서 감성 전달 방법은 인식된 사용자 영상을 프레임 단위로 분할한다. 즉, 감성 전달 방법은 연속된 장면으로 구성된 사용자 영상을 낱장 단위의 이미지인 프레임 단위로 분할한다.In
일례로, 감성 전달 방법은 사용자 영상을 제1 프레임의 사용자 영상, 제2 프레임의 사용자 영상 및 제n 프레임의 사용자 영상으로 분할한다.In one example, the emotion transfer method divides a user image into a user image of a first frame, a user image of a second frame, and a user image of an nth frame.
일례로, 감성 전달 방법은 사용자 영상을 현재 프레임인 제1 프레임의 사용자 영상과 이전 프레임인 제2 프레임의 사용자 영상으로 분할할 수 있다.In one example, the emotional delivery method may be divided into a user image of the first frame of the current frame and a user image of the second frame of the previous frame.
단계(503)에서 감성 전달 방법은 분할된 사용자 영상 각각에서 사용자 얼굴을 인식한다. 즉, 감성 전달 방법은 프레임 단위로 분할된 사용자 영상인 이미지 각각에서 사용자 얼굴 부분을 인식한다.In
단계(504)에서 감성 전달 방법은 인식된 사용자 얼굴에 기초하여 제2 사용자 감정 정보를 생성한다. 즉, 감성 전달 방법은 사용자 얼굴에서 입, 눈, 코 등에 기초하여 사용자 표정을 인식하고, 인식된 사용자 표정에 기초하여 제2 사용자 감정 정보를 생성한다.In
단계(505)에서 감성 전달 방법은 제2 프레임의 사용자 영상이 존재하는지 여부를 판단한다. 즉, 감성 전달 방법은 인식된 사용자 영상을 프레임 단위로 분할하여 복수의 사용자 영상을 인식할 수 있다.In
즉, 감성 전달 방법은 현재 프레임의 사용자 영상 이전 프레임의 사용자 영상인 제2 프레임이 존재하는지 여부를 판단하고, 제2 프레임의 사용자 영상이 존재할 경우, 단계(506)로 진행하고, 제2 프레임의 사용자 영상이 존재하지 않을 경우, 단계(508)로 진행한다.That is, the method for transmitting emotions determines whether a second frame, which is the user image of the previous frame of the current image, exists, and if the user image of the second frame exists, proceeds to step 506, and If there is no user image, the flow proceeds to step 508.
단계(506)에서 감성 전달 방법은 표정 변화 발생 여부를 판단한다. 즉, 감성 전달 방법은 제1 프레임의 사용자 영상기반의 사용자 얼굴과 제2 프레임의 사용자 영상기반의 사용자 얼굴을 비교하여 사용자 얼굴의 표정 변화 발생 여부를 판단한다. In
일례로, 감성 전달 방법은 사용자 얼굴의 표정 변화가 발생한 경우, 단계(507)로 진행하고, 사용자 얼굴의 표정 변화가 발생하지 않은 경우, 단계(508)로 진행한다.In one example, the emotional delivery method proceeds to step 507 when a change in the expression of the user's face occurs, and proceeds to step 508 when a change in the expression of the user's face does not occur.
단계(507)에서 감성 전달 방법은 표정 변화를 분석하여 제2 사용자 감정 정보를 업데이트한다. 즉, 감성 전달 방법은 표정 변화를 분석하여 단계(504)에서 생성된 제2 사용자 감정 정보를 업데이트한다.In
단계(508)에서 감성 전달 방법은 제2 사용자 감정 정보에 기초하여 진동촉각 정보를 생성한다. 즉, 감성 전달 방법은 업데이트된 제2 사용자 감정 정보에 기초하여 제2 진동촉각 정보를 생성한다.In
단계(509)에서 감성 전달 방법은 사용자 영상과 진동촉각 정보를 전송한다. 즉, 감성 전달 방법은 사용자 영상 및 제2 진동촉각 정보에 기초하여 제2 사용자 감성 데이터를 생성하고, 상대방 기기로 생성된 제2 사용자 감성 데이터를 전송한다.In
결국, 본 발명을 이용하면, 사용자 감정을 영상 통화 시 획득되는 영상 및 음성 기초하여 분석하고, 분석된 사용자 감정을 진동촉각으로 전달할 수 있다. 뿐만 아니라, 시각 및 청각뿐만 아니라 촉각을 통하여 영상 통화의 몰입감을 증가시킬 수 있고, 음성통화, 영상통화, 게임 및 회의 등의 다양한 엔터테이먼트에서 감성 정보를 음성, 영상 및 진동촉각을 통하여 전달할 수 있다.As a result, according to the present invention, the user emotion may be analyzed based on the video and audio obtained during the video call, and the analyzed user emotion may be transmitted to the vibrotactile. In addition, visual and auditory as well as tactile sense can increase the immersion of the video call, and can be sent through the voice, video and vibration tactile information in a variety of entertainment, such as voice calls, video calls, games and meetings have.
본 발명의 청구항 또는 명세서에 기재된 실시 예들에 따른 방법들은 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합의 형태로 구현될(implemented) 수 있다. Methods according to the embodiments described in the claims or the specification of the present invention may be implemented in the form of hardware, software, or a combination of hardware and software.
그러한 소프트웨어는 컴퓨터 판독 가능 저장 매체에 저장될 수 있다. 컴퓨터 판독 가능 저장 매체는, 적어도 하나의 프로그램(소프트웨어 모듈), 전자 장치에서 적어도 하나의 프로세서에 의해 실행될 때 전자 장치가 본 발명의 방법을 실시하게 하는 명령어들(instructions)을 포함하는 적어도 하나의 프로그램을 저장한다.Such software may be stored on a computer readable storage medium. The computer readable storage medium includes at least one program (software module), at least one program including instructions for causing the electronic device to perform the method of the present invention when executed by the at least one processor in the electronic device. Save it.
이러한 소프트웨어는, 휘발성(volatile) 또는 (ROM: Read Only Memory)과 같은 불휘발성(non-volatile) 저장장치의 형태로, 또는 램(RAM: random access memory), 메모리 칩(memory chips), 장치 또는 집적 회로(integrated circuits)와 같은 메모리의 형태로, 또는 컴팩트 디스크 롬(CD-ROM: Compact Disc-ROM), 디지털 다목적 디스크(DVDs: Digital Versatile Discs), 자기 디스크(magnetic disk) 또는 자기 테이프(magnetic tape) 등과 같은 광학 또는 자기적 판독 가능 매체에, 저장될 수 있다.Such software may be in the form of volatile or non-volatile storage, such as Read Only Memory (ROM), or random access memory (RAM), memory chips, devices or In the form of memory, such as integrated circuits, or in compact disc ROM (CD-ROM), digital versatile discs (DVDs), magnetic disks, or magnetic tapes tape, or the like, on an optical or magnetic readable medium.
저장 장치 및 저장 미디어는, 실행될 때 일 실시 예들을 구현하는 명령어들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적절한 기계-판독 가능 저장 수단의 실시 예들이다.Storage device and storage media are embodiments of machine-readable storage means suitable for storing a program or programs that include instructions that, when executed, implement embodiments.
실시 예들은 본 명세서의 청구항들 중 어느 하나에 청구된 바와 같은 장치 또는 방법을 구현하기 위한 코드를 포함하는 프로그램, 및 그러한 프로그램을 저장하는 기계-판독 가능 저장 매체를 제공한다.Embodiments provide a program comprising code for implementing an apparatus or method as claimed in any of the claims herein, and a machine-readable storage medium storing such a program.
나아가, 그러한 프로그램들은 유선 또는 무선 연결을 통해 전달되는 통신 신호와 같은 어떠한 매체에 의해 전자적으로 전달될 수 있으며, 실시 예들은 동등한 것을 적절히 포함한다.Furthermore, such programs may be delivered electronically by any medium, such as a communication signal carried over a wired or wireless connection, and embodiments include equivalents as appropriate.
상술한 구체적인 실시 예들에서, 발명에 포함되는 구성 요소는 제시된 구체적인 실시 예에 따라 단수 또는 복수로 표현되었다.In the above-described specific embodiments, the components included in the invention are expressed in the singular or plural according to the specific embodiments presented.
그러나, 단수 또는 복수의 표현은 설명의 편의를 위해 제시한 상황에 적합하게 선택된 것으로서, 상술한 실시 예들이 단수 또는 복수의 구성 요소에 제한되는 것은 아니며, 복수로 표현된 구성 요소라 하더라도 단수로 구성되거나, 단수로 표현된 구성 요소라 하더라도 복수로 구성될 수 있다.However, the singular or plural expressions are selected to suit the situations presented for convenience of description, and the above-described embodiments are not limited to the singular or plural elements, and the singular or plural elements may be composed of the singular or the plural. However, even a component expressed in the singular may be configured in plural.
한편 발명의 설명에서는 구체적인 실시 예에 관해 설명하였으나, 다양한 실시 예들이 내포하는 기술적 사상의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다.Meanwhile, in the description of the present invention, specific embodiments have been described, but various modifications may be made without departing from the scope of the technical idea included in the various embodiments.
그러므로 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니되며 후술하는 청구범위뿐만 아니라 이 청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be defined by the claims below and equivalents thereof.
100: 감성 전달 장치 110: 사용자 인식부
120: 감정 정보 생성부 130: 진동촉각 정보 생성부
140: 데이터 처리부100: emotional delivery device 110: user recognition unit
120: emotion information generation unit 130: vibration tactile information generation unit
140: data processing unit
Claims (13)
상기 인식된 사용자 음성 및 상기 인식된 사용자 영상 중 적어도 어느 하나를 분석하여 사용자 감정 정보를 생성하는 감정 정보 생성부;
상기 생성된 사용자 감정 정보에 기초하여 진동촉각 정보를 생성하는 진동촉각 정보 생성부; 및
상기 인식된 사용자 음성 및 상기 인식된 사용자 영상 중 적어도 어느 하나와 상기 생성된 진동촉각 정보에 기초하여 사용자 감성 데이터를 생성하고, 통화 연결된 상대방 기기로 상기 생성된 사용자 감성 데이터를 전송하는 데이터 처리부를 포함하고,
상기 감정 정보 생성부는,
사용자 감정을 판단하기 위한 기준값에 해당하는 버퍼 용량만큼, 사용자 음성이 기록되었는지 판단하고,
상기 판단 결과, 상기 버퍼 용량만큼 사용자 음성이 버퍼에 기록된 경우에만 상기 인식된 사용자 음성을 분석하고,
상기 인식된 사용자 영상에서 확인되는 사용자의 눈의 모양 및 입의 모양을 비교 대상 프레임과 비교하여 표정 변화를 인식함으로써 상기 인식된 사용자 영상을 분석하되, 상기 인식된 사용자 영상으로부터 분할된 프레임을 이용해서 사용자 감정 정보를 생성하고, 상기 분할된 프레임 이후의 또 다른 프레임을 이용해서 상기 생성된 사용자 감정 정보를 업데이트하고,
상기 진동촉각 정보 생성부는 상기 생성된 사용자 감정 정보와 상기 업데이트되는 사용자 감정 정보를 이용해서 상기 진동촉각 정보를 생성하는
진동촉각기반의 감성 전달 장치.
A user recognizer configured to recognize at least one of a user voice and a user image;
An emotion information generator configured to analyze at least one of the recognized user voice and the recognized user image to generate user emotion information;
A vibration tactile information generating unit generating vibration tactile information based on the generated user emotion information; And
And a data processor configured to generate user emotion data based on at least one of the recognized user voice and the recognized user image and the generated vibration tactile information, and to transmit the generated user emotion data to a counterpart connected device. and,
The emotion information generation unit,
It is determined whether the user voice is recorded by the buffer capacity corresponding to the reference value for determining the user emotion,
As a result of the determination, the recognized user voice is analyzed only when the user voice is recorded in the buffer by the buffer capacity.
Analyzing the recognized user image by recognizing a change in facial expression by comparing the shape of the eye and the mouth of the user identified in the recognized user image with a comparison target frame, using a frame divided from the recognized user image Generate user emotion information, update the generated user emotion information using another frame after the divided frame,
The vibration tactile information generation unit generates the vibration tactile information by using the generated user emotion information and the updated user emotion information.
Vibration tactile based emotion transmission device.
상기 사용자 인식부는, 상기 인식된 사용자 음성을 특정 버퍼 용량만큼 기록하고,
상기 감정 정보 생성부는, 상기 기록된 사용자 음성을 분석하여 제1 사용자 감정 정보를 생성하는
진동촉각기반의 감성 전달 장치.
The method of claim 1,
The user recognition unit records the recognized user voice by a specific buffer capacity,
The emotion information generation unit analyzes the recorded user voice to generate first user emotion information.
Vibration tactile based emotion transmission device.
상기 사용자 인식부는, 상기 인식된 사용자 영상을 프레임 단위로 분할하고, 상기 분할된 사용자 영상 각각에서 사용자 얼굴을 인식하는
진동촉각기반의 감성 전달 장치.
The method of claim 2,
The user recognition unit divides the recognized user image on a frame basis and recognizes a user face in each of the divided user images.
Vibration tactile based emotion transmission device.
상기 사용자 인식부는, 상기 분할된 사용자 영상에서 제1 프레임의 사용자 영상과 제2 프레임의 사용자 영상을 결정하고, 상기 결정된 제1 프레임의 사용자 영상과 상기 결정된 제2 프레임의 사용자 영상을 비교하여 상기 인식된 사용자 얼굴의 표정 변화를 인식하는
진동촉각기반의 감성 전달 장치.
The method of claim 3,
The user recognition unit determines the user image of the first frame and the user image of the second frame from the divided user image, compares the user image of the determined first frame with the user image of the determined second frame, and recognizes the image. To recognize facial expression changes on the user's face
Vibration tactile based emotion transmission device.
상기 감정 정보 생성부는, 상기 결정된 제1 프레임의 사용자 영상을 분석하여 제2 사용자 감정 정보를 생성하는
진동촉각기반의 감성 전달 장치.
The method of claim 4, wherein
The emotion information generator is configured to analyze the user image of the determined first frame to generate second user emotion information.
Vibration tactile based emotion transmission device.
상기 감정 정보 생성부는, 상기 분할된 사용자 영상에서 상기 제2 프레임의 사용자 영상의 존재 여부를 판단하고, 상기 제2 프레임의 사용자 영상이 존재할 경우, 상기 인식된 표정 변화를 분석하여 상기 생성된 제2 사용자 감정 정보를 업데이트하는
진동촉각기반의 감성 전달 장치.
The method of claim 5,
The emotion information generator determines whether a user image of the second frame exists in the divided user image, and analyzes the recognized facial expression change when the user image of the second frame exists. To update user sentiment information
Vibration tactile based emotion transmission device.
상기 감정 정보 생성부는, 상기 생성된 제1 사용자 감정 정보 및 상기 업데이트된 제2 사용자 감정 정보를 포함하는 상기 사용자 감정 정보를 생성하는
진동촉각기반의 감성 전달 장치.
The method of claim 6,
The emotion information generation unit generates the user emotion information including the generated first user emotion information and the updated second user emotion information.
Vibration tactile based emotion transmission device.
상기 진동촉각 정보 생성부는, 상기 생성된 제1 사용자 감정 정보에 기초하여 제1 진동촉각 정보를 생성하고,
상기 데이터 처리부는, 상기 인식된 사용자 음성 및 상기 생성된 제1 진동촉각 정보에 기초하여 제1 사용자 감성 데이터를 생성하고, 상기 상대방 기기로 상기 생성된 제1 사용자 감성 데이터를 전송하는
진동촉각기반의 감성 전달 장치.
The method of claim 7, wherein
The vibration tactile information generation unit generates first vibration tactile information based on the generated first user emotion information,
The data processor generates first user emotion data based on the recognized user voice and the generated first vibration tactile information, and transmits the generated first user emotion data to the counterpart device.
Vibration tactile based emotion transmission device.
상기 진동촉각 정보 생성부는, 상기 업데이트된 제2 사용자 감정 정보에 기초하여 제2 진동촉각 정보를 생성하고,
상기 데이터 처리부는, 상기 인식된 사용자 영상 및 상기 생성된 제2 진동촉각 정보에 기초하여 제2 사용자 감성 데이터를 생성하고, 상기 상대방 기기로 상기 생성된 제2 사용자 감성 데이터를 전송하는
진동촉각기반의 감성 전달 장치.
The method of claim 7, wherein
The vibration tactile information generation unit generates second vibration tactile information based on the updated second user emotion information,
The data processor generates second user emotion data based on the recognized user image and the generated second vibration tactile information, and transmits the generated second user emotion data to the counterpart device.
Vibration tactile based emotion transmission device.
상기 진동촉각 정보 생성부는, 상기 생성된 제1 사용자 감정 정보 및 상기 업데이트된 제2 사용자 감정 정보에 기초하여 제3 진동촉각 정보를 생성하고,
상기 데이터 처리부는, 상기 인식된 사용자 음성, 상기 인식된 사용자 영상 및 상기 생성된 제3 진동촉각 정보에 기초하여 제3 사용자 감성 데이터를 생성하고, 상기 상대방 기기로 상기 생성된 제3 사용자 감성 데이터를 전송하는
진동촉각기반의 감성 전달 장치.
The method of claim 7, wherein
The vibration tactile information generation unit generates third vibration tactile information based on the generated first user emotion information and the updated second user emotion information,
The data processor generates third user emotion data based on the recognized user voice, the recognized user image, and the generated third vibration tactile information, and transmits the generated third user emotion data to the counterpart device. Transmitting
Vibration tactile based emotion transmission device.
감정 정보 생성부에서, 사용자 감정을 판단하기 위한 기준값에 해당하는 버퍼 용량만큼, 사용자 음성이 기록되었는지 판단하는 단계;
상기 판단 결과, 상기 버퍼 용량만큼 사용자 음성이 버퍼에 기록된 경우에만 상기 인식된 사용자 음성을 분석하고, 상기 인식된 사용자 영상에서 확인되는 사용자의 눈의 모양 및 입의 모양을 비교 대상 프레임과 비교하여 표정 변화를 인식함으로써 상기 인식된 사용자 영상을 분석하여 사용자 감정 정보를 생성하되, 상기 인식된 사용자 영상으로부터 분할된 프레임으로부터 사용자 감정 정보를 생성하고, 상기 분할된 프레임 이후의 또 다른 프레임을 이용해서 상기 생성된 사용자 감정 정보를 업데이트하는 단계;
진동촉각 정보 생성부에서, 상기 생성된 사용자 감정 정보와 상기 업데이트되는 사용자 감정 정보를 이용해서 상기 진동촉각 정보를 생성하는 단계; 및
데이터 처리부에서, 상기 인식된 사용자 음성 및 상기 인식된 사용자 영상 중 적어도 어느 하나와 상기 생성된 진동촉각 정보에 기초하여 사용자 감성 데이터를 생성하고, 상대방 기기로 상기 생성된 사용자 감성 데이터를 전송하는 단계를 포함하는
진동촉각기반의 감성 전달 방법.
Recognizing, by the user recognition unit, at least one of a user voice and a user image;
In the emotion information generator, determining whether a user voice is recorded by a buffer capacity corresponding to a reference value for determining a user emotion;
As a result of the determination, the recognized user voice is analyzed only when the user voice is recorded in the buffer as much as the buffer capacity, and the shape of the eyes and the mouth of the user identified in the recognized user image are compared with the comparison target frame. Recognizing facial expression changes to analyze the recognized user image to generate user emotion information, generating user emotion information from a frame divided from the recognized user image, and using another frame after the divided frame. Updating the generated user emotion information;
Generating, by the vibration tactile information generating unit, the vibration tactile information using the generated user emotion information and the updated user emotion information; And
In the data processing unit, generating user emotion data based on at least one of the recognized user voice and the recognized user image and the generated vibration tactile information, and transmitting the generated user emotion data to a counterpart device. Containing
Vibration tactile based emotion transmission method.
상기 사용자 음성 및 사용자 영상 중 적어도 어느 하나를 인식하는 단계는,
상기 사용자 인식부에서, 상기 인식된 사용자 음성을 특정 버퍼 용량만큼 기록하는 단계;
상기 사용자 인식부에서, 상기 인식된 사용자 영상을 프레임 단위로 분할하고, 상기 분할된 사용자 영상 각각에서 사용자 얼굴을 인식하는 단계;
상기 사용자 인식부에서, 상기 분할된 사용자 영상에서 제1 프레임의 사용자 영상과 제2 프레임의 사용자 영상을 결정하는 단계; 및
상기 사용자 인식부에서, 상기 결정된 제1 프레임의 사용자 영상과 상기 결정된 제2 프레임의 사용자 영상을 비교하여 상기 인식된 사용자 얼굴의 표정 변화를 인식하는 단계를 포함하는
진동촉각기반의 감성 전달 방법.
In claim 11,
Recognizing at least one of the user voice and the user image,
Recording, by the user recognition unit, the recognized user voice by a specific buffer capacity;
Dividing the recognized user image by frame unit and recognizing a user face in each of the divided user images;
Determining, by the user recognizer, a user image of a first frame and a user image of a second frame from the divided user image; And
In the user recognition unit, comparing the determined user image of the first frame with the determined user image of the second frame, and recognizing a change in facial expression of the recognized user face;
Vibration tactile based emotion transmission method.
상기 인식된 사용자 음성 및 상기 인식된 사용자 영상 중 적어도 어느 하나를 분석하여 사용자 감정 정보를 생성하는 단계는,
상기 감정 정보 생성부에서, 상기 기록된 사용자 음성을 분석하여 제1 사용자 감정 정보를 생성하는 단계;
상기 감정 정보 생성부에서, 상기 결정된 제1 프레임의 사용자 영상을 분석하여 제2 사용자 감정 정보를 생성하는 단계;
상기 감정 정보 생성부에서, 상기 분할된 사용자 영상에서 상기 제2 프레임의 사용자 영상의 존재 여부를 판단하는 단계;
상기 제2 프레임의 사용자 영상이 존재할 경우, 상기 인식된 표정 변화를 분석하여 상기 생성된 제2 사용자 감정 정보를 업데이트하는 단계; 및
상기 생성된 제1 사용자 감정 정보 및 상기 업데이트된 제2 사용자 감정 정보를 포함하는 상기 사용자 감정 정보를 생성하는 단계를 포함하는
진동촉각기반의 감성 전달 방법.In claim 12,
Generating user emotion information by analyzing at least one of the recognized user voice and the recognized user image,
Generating, by the emotion information generator, first user emotion information by analyzing the recorded user voice;
Generating, by the emotion information generator, second user emotion information by analyzing the determined user image of the first frame;
Determining, by the emotion information generator, whether a user image of the second frame exists in the divided user image;
Updating the generated second user emotion information by analyzing the recognized facial expression change when the user image of the second frame exists; And
Generating the user emotion information including the generated first user emotion information and the updated second user emotion information.
Vibration tactile based emotion transmission method.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20160172412 | 2016-12-16 | ||
KR1020160172412 | 2016-12-16 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180070467A KR20180070467A (en) | 2018-06-26 |
KR102049838B1 true KR102049838B1 (en) | 2020-01-08 |
Family
ID=62788609
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170163942A KR102049838B1 (en) | 2016-12-16 | 2017-12-01 | Apparatus and method for transferring emotion based on vibrotactile |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102049838B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114035686B (en) * | 2021-11-10 | 2024-04-16 | 浙江大学 | Multi-mode inching effect advertisement situation construction method integrating touch sense |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101376148B1 (en) * | 2009-03-10 | 2014-03-27 | 에스케이텔레콤 주식회사 | Method for Transferring Vibration during Video Call and Mobile Communication Terminal therefor |
KR101294214B1 (en) | 2008-09-08 | 2013-08-08 | 에스케이플래닛 주식회사 | Mobile Communications Terminal and Method for Delivering feeling of far end talker by Vibration |
KR20100028764A (en) | 2008-09-05 | 2010-03-15 | 에스케이 텔레콤주식회사 | Mobile communications terminal and method for sending and receiving vibration information among voice communication |
KR101337229B1 (en) * | 2009-08-31 | 2013-12-05 | 에스케이플래닛 주식회사 | System, Haptic Server and Method for Providing of Emotional State of User In Video Telephony |
-
2017
- 2017-12-01 KR KR1020170163942A patent/KR102049838B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR20180070467A (en) | 2018-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10659684B2 (en) | Apparatus and method for providing dynamic panorama function | |
US10834503B2 (en) | Recording method, recording play method, apparatuses, and terminals | |
US20150296167A1 (en) | Method and system for communication | |
WO2014094199A1 (en) | Facial movement based avatar animation | |
US20090096927A1 (en) | System and method for video coding using variable compression and object motion tracking | |
CN104853081B (en) | Breakpoint image pickup method, device and mobile terminal | |
CN106791535B (en) | Video recording method and device | |
US20190212972A1 (en) | Method and apparatus for playing audio files | |
CN105187692A (en) | Video recording method and device | |
CN107040591A (en) | A kind of method and device being controlled to client | |
WO2019172960A1 (en) | Method and system for dynamically adjusting camera shots | |
KR102049838B1 (en) | Apparatus and method for transferring emotion based on vibrotactile | |
US10136115B2 (en) | Video shooting method and apparatus | |
WO2014110055A1 (en) | Mixed media communication | |
KR102125525B1 (en) | Method for processing image and electronic device thereof | |
CN104391742B (en) | Optimizing application method and apparatus | |
CN105245898B (en) | Image data recording method and device | |
CN105430260B (en) | Obtain the method and device of video image | |
CN103529935A (en) | User interface method and apparatus therefor | |
KR101713626B1 (en) | Tagging system and method for sound data | |
US9538226B2 (en) | Method for operating moving pictures and electronic device thereof | |
US20180246625A1 (en) | Method and apparatus for implementation of video playback | |
US20160132287A1 (en) | Dynamic Reconfiguration of Audio Devices | |
US11882401B2 (en) | Setting a parameter value | |
KR102176673B1 (en) | Method for operating moving pictures and electronic device thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
X091 | Application refused [patent] | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) |