KR20110025721A - System and method for delivering feeling during video call - Google Patents

System and method for delivering feeling during video call Download PDF

Info

Publication number
KR20110025721A
KR20110025721A KR1020090083727A KR20090083727A KR20110025721A KR 20110025721 A KR20110025721 A KR 20110025721A KR 1020090083727 A KR1020090083727 A KR 1020090083727A KR 20090083727 A KR20090083727 A KR 20090083727A KR 20110025721 A KR20110025721 A KR 20110025721A
Authority
KR
South Korea
Prior art keywords
avatar
terminal
gesture
video call
counterpart
Prior art date
Application number
KR1020090083727A
Other languages
Korean (ko)
Other versions
KR101205189B1 (en
Inventor
홍상우
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020090083727A priority Critical patent/KR101205189B1/en
Publication of KR20110025721A publication Critical patent/KR20110025721A/en
Application granted granted Critical
Publication of KR101205189B1 publication Critical patent/KR101205189B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/20Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/18Service support devices; Network management devices
    • H04W88/184Messaging devices, e.g. message centre

Abstract

PURPOSE: A feeling delivery system during an image call and a method thereof are provided to exactly transmit various feeling states of an opponent to a user through an image call. CONSTITUTION: An avatar providing server(30) receives an image data of an opponent photographed from an opponent terminal of a terminal which sent an avatar providing request signal. The avatar providing service analyzes the received image data. The avatar providing server senses a gesture which the opponent poses. The avatar providing server extracts an avatar corresponding to the sensed gesture to a database unit. The avatar providing server transmits an image call traffic including the extracted avatar to a terminal which sent the avatar providing request signal.

Description

영상통화 중 감정 전달 시스템 및 방법{System and method for delivering feeling during video call}System and method for delivering feeling during video call}

본 발명은 영상통화기술에 관한 것으로, 더욱 상세하게는 영상통화 중 상대방 단말기로부터 수신한 영상데이터를 분석하여 상대방이 특정 제스처를 취하게 되면 사용자 단말기로 특정 제스처에 대응하는 아바타를 출력하여 상대방의 감정상태를 사용자에게 전달하는 영상통화 중 감정 전달 시스템 및 방법에 관한 것이다.The present invention relates to a video call technology, and more particularly, to analyze an image data received from a counterpart terminal during a video call, and when the counterpart takes a specific gesture, an avatar corresponding to the specific gesture is output to the user terminal to express the emotion of the counterpart. The present invention relates to an emotional delivery system and method for transmitting a video call to a user.

음성통화 위주의 통화패턴에서 고속정보통신이 현실화되면서 통신단말기를 통한 영상통화기술이 주목을 받고 있다. 또한 영상통화가 가능한 통신단말기(이하, '화상통화 단말기'라 함)의 보급이 확대되면서 영상통화의 빈도수가 날로 증가하고 있는 추세이다.As high-speed information communication is realized in voice call-oriented call patterns, video call technology through communication terminals is attracting attention. In addition, as the spread of communication terminals capable of video calls (hereinafter referred to as 'video call terminals') is increasing, the frequency of video calls is increasing day by day.

영상통화 단말기는 영상통화 중 상대방의 영상을 화면에 표시하고, 상대방의 음성을 출력하기 때문에, 단순히 음성만으로 통화를 하는 것에 비해서 영상통화자 간에 서로의 감정상태를 쉽게 교환할 수 있다.Since the video call terminal displays the video of the other party on the screen and outputs the voice of the other party, the video call terminal can easily exchange each other's emotional states with each other as compared with simply making a voice call.

하지만 여전히 사용자는 영상통화 중 상대방의 감정상태를 표정이나 목소리만으로 전달받으므로, 상대방의 다양한 감정상태를 정확히 영상통화 단말기를 통하 여 사용자에게 전달하는 데는 한계가 있다. 그리고 현재의 영상통화는 단순히 상대방의 영상을 보면서 통화를 수행하는 데 그치고 있기 때문에, 영상통화자의 다양한 요구를 충족시키면서 영상통화자의 흥미를 유발하여 영상통화의 사용을 확대하는 데도 한계가 있다.However, since the user is still receiving the emotional state of the other party only through the facial expression or voice during the video call, there is a limit in accurately transmitting the various emotional states of the other party to the user through the video call terminal. In addition, since the current video call is merely to perform the call while watching the video of the other party, there is a limit to expanding the use of the video call by inducing interest of the video call while satisfying various needs of the video caller.

따라서 본 발명의 목적은 영상통화를 통하여 상대방의 다양한 감정상태를 정확히 사용자에게 전달할 수 있는 영상통화 중 감정 전달 시스템 및 방법을 제공하는 데 있다.Accordingly, it is an object of the present invention to provide an emotion delivery system and method during a video call that can accurately convey various emotional states of the counterpart to a user through a video call.

본 발명의 다른 목적은 영상통화자의 흥미를 유발시켜 영상통화의 사용을 확대할 수 있는 영상통화 중 감정 전달 시스템 및 방법을 제공하는 데 있다.Another object of the present invention is to provide a system and method for transmitting emotions during a video call, which can induce interest of a video call to expand the use of the video call.

본 발명의 또 다른 목적은 영상통화 중 상대방 단말기로부터 수신한 영상데이터를 분석하여 상대방이 취한 제스처에 대응하는 아바타를 사용자 단말기의 화면에 출력하여 상대방의 감정 상태를 사용자에게 전달하는 영상통화 중 감정 전달 시스템 및 방법을 제공하는 데 있다.Another object of the present invention is to analyze the image data received from the counterpart terminal during the video call, and outputs the avatar corresponding to the gesture taken by the counterpart on the screen of the user terminal to transmit the emotion state of the counterpart to the user. A system and method are provided.

상기 목적을 달성하기 위하여, 본 발명은 통신망 및 아바타 제공서버를 포함하여 구성되는 제스처 인식을 통한 영상통화 중 감정 전달 시스템을 제공한다. 상기 통신망은 영상통화 중인 발신 단말기 또는 착신 단말기로부터 아바타 제공 요청 신호를 수신하면, 아바타 제공서버와 상기 발신 단말기 간의 세션 및 상기 아바타 제공서버와 상기 착신 단말기 간의 세션을 설정한다. 상기 아바타 제공서버는 상기 아바타 제공 요청 신호를 발신한 단말기의 상대방 단말기로부터 촬영된 상대방의 영상데이터를 수신하고, 상기 수신한 영상데이터를 분석하여 상기 상대방이 취하는 제스처를 감지하고, 상기 감지한 제스처에 대응하는 아바타를 데이터베이스부에서 추출하고, 상기 추출한 아바타를 포함하는 영상통화 트래픽을 상기 아바타 제공 요청 신호를 발신한 단말기로 전송한다.In order to achieve the above object, the present invention provides a system for transmitting emotions during a video call through gesture recognition including a communication network and an avatar providing server. When the communication network receives the avatar providing request signal from the calling terminal or the called terminal during the video call, the communication network establishes a session between the avatar providing server and the calling terminal and a session between the avatar providing server and the called terminal. The avatar providing server receives video data of the other party photographed from the other party's terminal of the terminal which has sent the avatar providing request signal, and analyzes the received video data to detect a gesture taken by the other party, and to the detected gesture. A corresponding avatar is extracted from a database unit, and video call traffic including the extracted avatar is transmitted to a terminal that has sent the avatar providing request signal.

본 발명에 따른 감정 전달 시스템에 있어서, 상기 통신망은 상기 발신 단말기로부터 발신된 영상 호를 수신하면 상기 발신 단말기와 착신 단말기 간의 영상 호 경로를 설정하고, 상기 아바타 제공 요청 신호가 수신되면 상기 영상 호 경로를 해제하고 상기 아바타 제공서버와 발신 단말기 간의 세션 및 상기 아바타 제공서버와 상기 착신 단말기 간의 세션을 설정한다.In the emotion delivery system according to the present invention, the communication network sets a video call path between the calling terminal and the called terminal upon receiving a video call sent from the calling terminal, and when the avatar providing request signal is received, the video call path. Releases and sets a session between the avatar providing server and the calling terminal and a session between the avatar providing server and the called terminal.

본 발명은 또한, 송수신부, 데이터베이스부 및 제어부를 포함하여 구성되는 제스처 인식을 통한 영상통화 중 감정 전달 시스템의 아바타 제공서버를 제공한다. 상기 송수신부는 통신망, 발신 단말기 및 착신 단말기와 통신을 수행한다. 상기 데이터베이스부는 상기 발신 단말기 또는 착신 단말기 사용자의 제스처에 대응하는 아바타를 저장한다. 그리고 상기 제어부는 영상통화 중인 상기 발신 단말기 또는 착신 단말기의 아바타 제공 요청 신호에 따라 상기 통신망에 의해 상기 발신 단말기 및 착신 단말기와 각각 세션을 설정하고, 상기 아바타 제공 요청 신호를 발신한 단말기의 상대방 단말기로부터 촬영된 상대방의 영상데이터를 수신하고, 상기 수신한 영상데이터를 분석하여 상기 상대방이 취하는 제스처를 감지하고, 상기 감지한 제스처에 대응하는 아바타를 데이터베이스부에서 추출하고, 상기 추출한 아바타를 포함하는 영상통화 트래픽을 상기 아바타 제공 요청 신호를 발신한 단말기로 전송한다.The present invention also provides an avatar providing server of an emotion delivery system during a video call through gesture recognition including a transceiver, a database, and a controller. The transceiver performs communication with a communication network, a calling terminal and a called terminal. The database unit stores an avatar corresponding to a gesture of the calling terminal or the called terminal user. The controller sets a session with the calling terminal and the called terminal by the communication network according to the avatar providing request signal of the calling terminal or the called terminal during the video call, and from the counterpart terminal of the terminal sending the avatar providing request signal. Receives image data of the other party photographed, analyzes the received image data, detects a gesture taken by the other party, extracts an avatar corresponding to the detected gesture from a database unit, and includes a video call including the extracted avatar. The traffic is transmitted to the terminal that has sent the avatar providing request signal.

본 발명은 또한, 통신부, 카메라부, 출력부, 저장부 및 단말제어부를 포함하 여 구성되는 제스처 인식을 통한 영상통화 중 감정 전달 시스템의 영상통화 단말기를 제공한다. 상기 통신부는 통신망을 매개로 상대방 단말기와 영상통화를 수행한다. 상기 카메라부는 영상통화시 사용자를 촬영한다. 상기 출력부는 상기 통신부를 통하여 수신한 상대방의 영상 및 음성데이터를 출력한다. 상기 저장부는 상대방의 제스처에 대응하는 아바타를 저장한다. 그리고 상기 단말제어부는 상기 통신부를 통해 상기 상대방 단말기로부터 수신한 영상데이터를 분석하여 상기 상대방이 취하는 제스처를 감지하고, 상기 감지한 제스처에 대응하는 아바타를 상기 저장부에서 추출하고, 상기 추출한 아바타를 상기 출력부로 출력한다.The present invention also provides a video call terminal of an emotion delivery system during a video call through gesture recognition including a communication unit, a camera unit, an output unit, a storage unit, and a terminal controller. The communication unit performs a video call with a counterpart terminal through a communication network. The camera unit photographs a user during a video call. The output unit outputs the video and audio data of the other party received through the communication unit. The storage unit stores an avatar corresponding to the gesture of the counterpart. The terminal controller analyzes the image data received from the counterpart terminal through the communication unit to detect a gesture taken by the counterpart, extracts an avatar corresponding to the detected gesture from the storage unit, and extracts the extracted avatar. Output to the output.

본 발명은 또한, 아바타 제공서버가 영상통화 중인 발신 단말기 또는 착신 단말기의 아바타 제공 요청 신호에 따라 통신망에 의해 상기 발신 단말기 및 착신 단말기와 각각 세션을 설정하는 세션 설정 단계, 상기 아바타 제공서버가 상기 아바타 제공 요청 신호를 발신한 단말기의 상대방 단말기로부터 촬영된 상대방의 영상데이터를 수신하는 수신 단계, 상기 아바타 제공서버가 상기 수신한 영상데이터를 분석하여 상기 상대방이 취하는 제스처를 감지하고, 상기 감지한 제스처에 대응하는 아바타를 데이터베이스부에서 추출하는 추출 단계, 상기 아바타 제공서버가 상기 추출한 아바타를 포함하는 영상통화 트래픽을 상기 아바타 제공 요청 신호를 발신한 단말기로 전송하는 전송 단계를 포함하는 제스처 인식을 통한 영상통화 중 감정 전달 방법을 제공한다.The present invention also provides a session setting step of establishing a session with the calling terminal and the called terminal by the communication network according to the avatar providing request signal of the calling terminal or the called terminal in which the avatar providing server is in a video call. Receiving step of receiving the image data of the other party photographed from the other party terminal of the terminal that has provided the provision request signal, the avatar providing server analyzes the received video data to detect the gesture taken by the other party, and to the detected gesture Extracting a corresponding avatar from the database unit; transmitting the video call traffic including the extracted avatar to the terminal that sent the avatar providing request signal by the avatar providing server; How to convey emotions Ball.

그리고 본 발명은 또한, 통신망을 매개로 상대방 단말기와 영상통화 중인 사용자 단말기가 상기 상대방 단말기로부터 영상데이터를 수신하는 수신 단계, 상기 사용자 단말기가 상기 수신한 영상데이터를 분석하여 상기 상대방이 취하는 제스처를 감지하고, 상기 감지한 제스처에 대응하는 아바타를 저장부에서 추출하는 추출 단계, 상기 사용자 단말기가 상기 추출한 아바타를 출력부를 통하여 출력하는 출력 단계를 포함하는 제스처 인식을 통한 영상통화 중 감정 전달 방법을 제공한다.The present invention also provides a receiving step of receiving a video data from the counterpart terminal by a user terminal having a video call with the counterpart terminal via a communication network, and detecting the gesture of the counterpart by analyzing the received video data by the user terminal. And extracting an avatar corresponding to the detected gesture in a storage unit, and outputting the extracted avatar through an output unit by the user terminal. .

본 발명에 따르면, 사용자 단말기는 영상통화 중 상대방 단말기로부터 수신한 영상데이터를 분석하여 상대방이 취한 제스처에 대응하는 아바타를 수신한 영상데이터와 함께 출력하여 상대방의 감정상태를 사용자에게 전달할 수 있다. 즉 사용자 단말기는 상대방의 영상 및 음성뿐만 아니라 상대방이 취한 제스처에 따른 아바타를 출력하여 상대방의 감정상태를 사용자에게 효과적으로 전달할 수 있다.According to the present invention, the user terminal may analyze the image data received from the counterpart terminal during the video call, and output the avatar corresponding to the gesture taken by the counterpart along with the received image data to transmit the emotional state of the counterpart to the user. That is, the user terminal may effectively transmit the emotional state of the other party to the user by outputting the avatar according to the gesture of the other party as well as the other party's image and voice.

본 발명에 따른 영상통화 단말기는 상대방의 제스처에 대응하는 아바타를 출력하면서 영상통화를 수행할 수 있고, 사용자는 영상통화시 사용할 아바타를 자신이 직접 설정하여 사용할 수 있기 때문에, 영상통화자의 다양한 요구를 충족시키면서 영상통화자의 흥미를 유발하여 영상통화의 사용을 확대할 수 있다. 즉 사용자는 영상통화 단말기를 통하여 상대방의 적어도 하나의 제스처에 대응하는 아바타의 모습이나 행동 방식을 직접 설정할 수 있기 때문에, 사용자의 개성을 추구하면서 보다 흥미롭게 영상통화를 사용할 수 있는 환경을 제공할 수 있다.The video call terminal according to the present invention can perform a video call while outputting an avatar corresponding to the gesture of the other party, and the user can directly set and use an avatar to be used during the video call, so that various needs of the video caller can be met. While satisfying the video caller's interest, the use of the video call can be expanded. That is, since the user can directly set the appearance or behavior of the avatar corresponding to at least one gesture of the other party through the video call terminal, the user can provide an environment in which the video call can be used more interestingly while pursuing the user's personality. .

이하, 첨부 도면을 참조하여 본 발명의 실시예를 보다 상세하게 설명하고자 한다.Hereinafter, with reference to the accompanying drawings will be described in detail an embodiment of the present invention.

여기서 '아바타'는 단말기 사용자의 감정상태를 대신하여 표현하는 그래픽 컨텐츠로서, 애니메이션 캐릭터, 동영상, 정지영상, UCC(User Created Contents), 이모티콘, 플래시(flash), 영상과 진동이 조합된 햅틱 컨텐츠 등을 포함한다.Here, 'Avatar' is a graphic content that represents the emotional state of the terminal user, such as animated characters, video, still images, UCC (User Created Contents), emoticons, flash, haptic content combined with video and vibration, etc. It includes.

본 발명의 제1 실시예에 따른 영상통화 중 감정 전달 시스템(100)에 대해서 도 1 및 도 2를 참조하여 설명하면 다음과 같다. 여기서 도 1은 본 발명의 제1 실시예에 따른 영상통화 중 감정 전달 시스템(100)을 보여주는 블록도이다. 도 2는 도 1의 발신 단말기(20)의 구성을 보여주는 블록도이다.The emotion delivery system 100 during a video call according to the first embodiment of the present invention will be described with reference to FIGS. 1 and 2. 1 is a block diagram illustrating an emotion transmission system 100 during a video call according to a first embodiment of the present invention. 2 is a block diagram showing the configuration of the originating terminal 20 of FIG.

제1 실시예에 따른 영상통화 중 감정 전달 시스템(100; 이하 '감정 전달 시스템'이라 함)은 영상통화 중 상대방이 취한 특정 제스처에 대응하는 아바타를 출력하여 사용자에게 상대방의 감정상태를 전달한다. 즉 영상통화 중 상대방이 취하는 얼굴표정, 손동작, 머리동작, 팔동작, 다리동작 및 이들의 조합 등과 같은 특정 제스처는 상대방의 감정상태와 관련되기 때문에, 제1 실시예에 따른 감정 전달 시스템(100)은 영상통화 중 상대방이 특정 제스처를 취하면 특정 제스처에 대응하는 상대방의 감정상태를 표현할 수 있는 아바타를 사용자 단말기의 화면에 출력시킴으로써 사용자에게 상대방의 감정상태를 전달할 수 있다.The emotional delivery system 100 (hereinafter, referred to as an 'emotional delivery system') of a video call according to the first embodiment outputs an avatar corresponding to a specific gesture taken by the other party during a video call and transmits the emotional state of the other party to the user. That is, since certain gestures such as facial expressions, hand gestures, head gestures, arm gestures, leg gestures, and combinations thereof, which are taken by the other party during the video call are related to the emotional state of the other party, the emotional delivery system 100 according to the first embodiment When the counterpart makes a specific gesture during the video call, the avatar may express the emotional state of the counterpart corresponding to the particular gesture on the screen of the user terminal to transmit the emotional state of the counterpart to the user.

이와 같은 제1 실시예에 따른 감정 전달 시스템(100)은 통신망(10)을 매개로 연결되어 영상통화를 수행하는 발신 단말기(20) 및 착신 단말기(40)를 포함하여 구성된다.The emotion transmission system 100 according to the first embodiment is configured to include a calling terminal 20 and a called terminal 40 connected to the communication network 10 to perform a video call.

통신망(10)은 발신 단말기(20)와 착신 단말기(40) 사이의 데이터 전송 및 정보 교환을 위한 일련의 데이터 송수신 동작을 수행한다. 통신망(10)은 IP를 통하여 대용량 데이터의 송수신 서비스 및 끊김 없는 데이터 서비스를 제공하는 IP망으로, IP를 기반으로 서로 다른 망을 통합한 IP망 구조인 ALL-IP망일 수 있다. 또한 통신망(10)은 유선통신망, 이동통신망, WiBro(Wireless Broadband)망, HSDPA(High-Speed Downlink Packet Access)망, 위성통신망 중에 하나일 수 있다.The communication network 10 performs a series of data transmission and reception operations for data transmission and information exchange between the calling terminal 20 and the called terminal 40. The communication network 10 is an IP network providing a transmission / reception service and a seamless data service of a large amount of data through IP, and may be an ALL-IP network, which is an IP network structure integrating different networks based on IP. In addition, the communication network 10 may be one of a wired communication network, a mobile communication network, a wireless broadband (WiBro) network, a high-speed downlink packet access (HSDPA) network, and a satellite communication network.

이와 같은 통신망(10)은 호제어기(14)와 위치등록기(16)를 포함하여 구성될 수 있다.Such a communication network 10 may include a call controller 14 and a location register 16.

호제어기(14)는 호 및 세션처리에 관련된 기능을 담당하는 부분으로서, CSCF(Call State Control Function) 또는 MSC(Mobile Switching Center) 중에 하나일 수 있다. 특히 CSCF로 구현된 호제어기(14)는 인입호에 대한 게이트웨이로서의 기능, 호 제어 기능, SPD(Serving Profile Database) 기능, 주소 처리 기능 등을 수행한다. 특히 호제어기(14)는 발신 단말기(20) 또는 착신 단말기(40)의 요청에 따라 아바타를 포함한 영상통화 트래픽을 아바타 제공을 요청한 단말기로 전송한다.The call controller 14 is a part in charge of functions related to call and session processing, and may be one of a call state control function (CSCF) or a mobile switching center (MSC). In particular, the call controller 14 implemented with CSCF performs a function as a gateway for incoming calls, a call control function, a SPD (Serving Profile Database) function, an address processing function, and the like. In particular, the call controller 14 transmits the video call traffic including the avatar to the terminal requesting to provide the avatar according to the request of the calling terminal 20 or the called terminal 40.

위치등록기(16)는 가입자의 마스터 데이터베이스로서, 가입자와 관련된 서비스의 마스터 목록을 유지하거나 가입자의 위치정보에 대한 관리를 수행함으로써 엑세스 수단을 추적하는 역할을 담당한다. 위치등록기(16)는 가입자가 가입한 부가서비스 가입정보를 저장한다. 위치등록기(16)로는 HLR(Home Location Register) 또는 All-IP망에서 가입자 정보 관리를 수행하는 HSS(Home Subscriber Server) 중에 하나일 수 있다.The location register 16 is a master database of subscribers, and is responsible for tracking access means by maintaining a master list of services related to subscribers or performing management of subscriber location information. The location register 16 stores additional service subscription information subscribed to by the subscriber. The location register 16 may be one of a home location register (HLR) or a home subscriber server (HSS) that manages subscriber information in an All-IP network.

그리고 발신 단말기(20)와 착신 단말기(40)는 통신망(10)을 매개로 서로 간 에 영상통화를 수행한다. 발신 단말기(20) 또는 착신 단말기(40)로부터 아바타 제공 요청 신호가 입력되면, 아바타 제공 요청 신호를 발신한 단말기는 상대방이 취한 특정 제스처에 대응하는 아바타를 출력한다. 발신 단말기(20)와 착신 단말기(40)는 통신망(10)을 통하여 영상통화가 가능한 유무선 통신단말기로서, 이동통신단말기, 유선통신단말기, 인터넷전화기 등을 포함한다. 이때 사용자 단말기는 아바타를 포함한 상대방 영상을 표시한다. 따라서 사용자는 출력한 아바타를 통하여 상대방의 감정상태를 알 수 있다.In addition, the calling terminal 20 and the called terminal 40 perform a video call with each other through the communication network 10. When the avatar providing request signal is input from the calling terminal 20 or the called terminal 40, the terminal that sends the avatar providing request signal outputs an avatar corresponding to a specific gesture taken by the other party. The calling terminal 20 and the called terminal 40 are wired / wireless communication terminals capable of video calls through the communication network 10, and include a mobile communication terminal, a wired communication terminal, and an internet telephone. At this time, the user terminal displays the counterpart image including the avatar. Therefore, the user can know the emotional state of the other party through the output avatar.

제1 실시예에 따른 영상통화 중 감정 전달 시스템(100)의 발신 단말기(20) 및 착신 단말기(40)는 동일한 구성을 갖기 때문에, 도 2에 도시된 발신 단말기(20)의 구성을 중심으로 설명하면 다음과 같다. 발신 단말기(20)는 통신부(21), 입력부(22), 저장부(23), 카메라부(24), 출력부(25,26) 및 단말제어부(27)를 포함한다.Since the calling terminal 20 and the called terminal 40 of the emotional delivery system 100 during the video call according to the first embodiment have the same configuration, the description will be mainly given of the configuration of the calling terminal 20 shown in FIG. 2. Is as follows. The calling terminal 20 includes a communication unit 21, an input unit 22, a storage unit 23, a camera unit 24, an output unit 25 and 26, and a terminal control unit 27.

통신부(21)는 통신망(10)을 매개로 착신 단말기(40)와의 영상통화를 위한 데이터를 송수신한다. 통신부(21)는 단말제어부(27)의 제어에 따라 상대방이 취한 제스처에 대응하는 아바타를 출력부(25,26)로 출력한다.The communication unit 21 transmits and receives data for a video call with the destination terminal 40 through the communication network 10. The communication unit 21 outputs an avatar corresponding to the gesture taken by the counterpart to the output units 25 and 26 under the control of the terminal controller 27.

입력부(22)는 발신 단말기(20)의 조작을 위한 복수의 키를 제공하며, 사용자의 키선택에 따른 선택 신호를 발생하여 단말제어부(27)에 전달한다. 사용자는 입력부(22)를 통해 영상통화 요청 신호와, 영상통화 중 아바타 제공 요청 신호를 입력할 수 있다. 입력부(22)로는 키패드, 터치패드와 같은 포인팅 장치, 터치스크린(touch screen) 등의 입력장치가 사용될 수 있다.The input unit 22 provides a plurality of keys for the operation of the calling terminal 20, and generates a selection signal according to a user's key selection and transmits the selection signal to the terminal controller 27. The user may input a video call request signal and an avatar providing request signal during the video call through the input unit 22. The input unit 22 may be a keypad, a pointing device such as a touch pad, or an input device such as a touch screen.

저장부(23)는 발신 단말기(20)의 동작 제어시 필요한 프로그램과, 그 프로그 램 수행 중에 발생되는 데이터를 저장하며, 하나 이상의 휘발성 메모리 소자와 비휘발성 메모리 소자로 이루어진다. 저장부(23)는 영상통화 중 아바타 제공 요청 신호에 따른 상대방의 제스처에 따른 아바타를 출력하기 위한 실행프로그램을 저장한다. 저장부(23)는 상대방의 특정 제스처에 대응하는 아바타 또는 사용자가 설정한 아바타를 저장한다. 이때 저장부(23)는 상대방의 단말정보에 매칭하여 아바타를 저장한다. 저장부(23)는 상대방의 특정 제스처에 따라 동작할 아바타를 매핑하여 저장할 수 있다.The storage unit 23 stores a program necessary for controlling the operation of the calling terminal 20 and data generated during the execution of the program, and includes one or more volatile memory devices and nonvolatile memory devices. The storage unit 23 stores an execution program for outputting the avatar according to the gesture of the other party according to the avatar providing request signal during the video call. The storage unit 23 stores an avatar corresponding to a specific gesture of the counterpart or an avatar set by the user. At this time, the storage unit 23 matches the terminal information of the counterpart and stores the avatar. The storage unit 23 may map and store an avatar to operate according to a specific gesture of the counterpart.

여기서 특정 제스처는 상대방이 취하는 제스처 중 상대방의 감정상태와 관련된 제스처로서, 상대방이 취하는 얼굴표정, 손동작, 머리동작, 팔동작, 다리동작 및 이들의 조합 중에 적어도 하나의 제스처를 포함한다. 예컨대 상대방이 고개를 좌우로 흔드는 제스처를 취하는 경우, 거부, 싫음 등과 같은 부정적인 감정상태를 표현하고자 할 때 취하는 제스처이다. 상대방이 고개를 상하로 흔드는 제스처를 취하는 경우, 승낙, 좋음 등과 같은 긍정적인 감정상태를 표현하고자 할 때 취하는 제스처이다. 상대방이 양 팔 또는 양 손을 사용하여 하트 모양의 제스처를 취하는 경우, 상대방이 사용자를 사용하는 감정상태를 표현하고자 할 때 취하는 제스처이다.Here, the specific gesture is a gesture related to the emotional state of the other of the gestures taken by the other party, and includes at least one of facial expressions, hand gestures, head gestures, arm gestures, leg gestures, and a combination thereof. For example, when the other person shakes his head from side to side, it is a gesture that is taken when expressing a negative emotional state such as rejection or dislike. When the other person shakes his head up and down, it is a gesture that he or she wants to express a positive emotional state such as acceptance or good. When the other party takes a heart-shaped gesture using both arms or both hands, the other party takes a gesture to express an emotional state using the user.

아바타는 상대방(객체)이 취한 특정 제스처에 대응하는 설정된 행동 방식으로 동작할 수 있다. 예컨대, 상대방이 고개를 좌우로 흔드는 제스처를 취하면, 아바타는 상대방의 부정적인 감정상태를 설정된 표정이나 행동을 통하여 표현한다. 또는 아바타는 상대방이 취한 특정 제스처에 대응하는 행동 방식으로 동작할 수 있 다. 예컨대, 상대방이 고개를 좌우로 흔들면, 아바타 또한 상대방의 제스처와 동일하게 고개를 좌우로 흔드는 동작을 수행한다.The avatar may operate in a set behavioral manner corresponding to a specific gesture taken by the counterpart (object). For example, when the other party makes a gesture of shaking his / her head from side to side, the avatar expresses the negative emotional state of the other party through a set facial expression or action. Alternatively, the avatar may operate in an action manner corresponding to a specific gesture taken by the counterpart. For example, when the other person shakes his head from side to side, the avatar also shakes his head from side to side in the same manner as the other person's gesture.

그리고 상대방의 특정 제스처에 아바타를 매핑하여 저장할 때, 특정 제스처에 따른 상대방의 감정상태를 그대로 표현하는 아바타를 설정할 수도 있고, 정반대로 표현하는 아바타를 설정할 수 있다.When the avatar is mapped to the specific gesture of the counterpart and stored, the avatar may be set to express the emotion state of the counterpart according to the specific gesture as it is, or the avatar may be set to be expressed in the opposite direction.

카메라부(24)는 통신부(21)를 통해 전송하기 위한 사용자(발신자)의 영상데이터를 획득한다. 즉 카메라부(24)는 입력부(22)를 통한 영상통화의 승낙에 따라 사용자의 영상을 촬영하여 영상데이터를 획득한다. 이때 카메라부(24)는 이미지 센서, 신호처리부 및 영상처리부를 포함하여 구성될 수 있다. 이미지 센서는 촬영한 영상의 광신호를 아날로그 신호로 변환한다. 신호처리부는 아날로그 신호를 디지털 신호로 변환한다. 그리고 영상처리부는 신호처리부를 통해 입력되는 영상신호를 처리하여 영상데이터를 획득하며, 획득된 영상데이터를 통신부(21)나 표시부(25)를 통해 출력하거나 저장부(23)에 저장한다. 또한 영상처리부는 통신부(21)를 통해 입력되는 상대방(착신자)의 영상데이터를 처리하여 표시부(25)를 통해 출력하거나 저장부(23)에 저장한다.The camera unit 24 acquires image data of a user (sender) for transmission through the communication unit 21. That is, the camera unit 24 acquires image data by capturing the image of the user according to the acceptance of the video call through the input unit 22. In this case, the camera unit 24 may include an image sensor, a signal processor, and an image processor. The image sensor converts the optical signal of the captured image into an analog signal. The signal processor converts an analog signal into a digital signal. The image processing unit processes the image signal input through the signal processing unit to obtain image data, and outputs the obtained image data through the communication unit 21 or the display unit 25 or stores it in the storage unit 23. In addition, the image processing unit processes the image data of the other party (recipient) input through the communication unit 21 to output through the display unit 25 or to store in the storage unit (23).

출력부(25,26)는 표시부(25)와 음원처리부(26)를 포함한다. 출력부(25,26)는 진동을 발생시키는 진동발생부를 더 포함할 수 있다.The output units 25 and 26 include a display unit 25 and a sound source processing unit 26. The output units 25 and 26 may further include a vibration generator for generating vibration.

표시부(25)는 발신 단말기(20)에서 실행되는 각종 기능 메뉴를 비롯하여 저장부(23)에 저장된 정보를 표시한다. 표시부(25)는 단말제어부(27)의 제어에 따라 상대방의 영상 또는 아바타를 표시한다. 표시부(25)로는 LCD(Liquid Crystal Display)나 터치 스크린이 사용될 수 있다. 터치 스크린은 표시 장치와 입력 장치로서의 역할을 동시에 수행한다.The display unit 25 displays information stored in the storage unit 23 including various function menus executed in the calling terminal 20. The display unit 25 displays an image or an avatar of the other party under the control of the terminal controller 27. As the display unit 25, a liquid crystal display (LCD) or a touch screen may be used. The touch screen simultaneously serves as a display device and an input device.

음원처리부(26)는 단말제어부(27)의 제어에 따라 마이크(MIC)로 입력되는 음성을 디지털화하여 음성정보를 획득하고, 통신부(21)를 통해 수신된 음성정보를 복조하여 스피커(SPK)를 통해 출력한다.The sound source processor 26 digitizes the voice input to the microphone MIC under the control of the terminal controller 27 to obtain voice information, and demodulates the voice information received through the communication unit 21 to generate a speaker SPK. Output through

그리고 단말제어부(27)는 발신 단말기(20)의 전반적인 제어 동작을 수행하는 마이크로프로세서(microprocessor)이다. 특히 단말제어부(27)는 영상통화 중 상대방 단말기로부터 수신한 영상데이터를 분석하여 상대방이 특정 제스처를 취하는 지를 모니터링하고, 모니터링 중 상대방이 취한 특정 제스처에 대응하는 아바타의 출력을 제어한다.In addition, the terminal controller 27 is a microprocessor that performs overall control operations of the calling terminal 20. In particular, the terminal controller 27 analyzes the image data received from the counterpart terminal during the video call to monitor whether the counterpart takes a specific gesture, and controls the output of the avatar corresponding to the specific gesture taken by the counterpart during monitoring.

단말제어부(27)는 아바타 설정 모드에서 상대방의 특정 제스처에 대응하는 아바타를 설정할 수 있다. 아바타는 일반, 날씨, 스포츠(골프, 농구, 야구 등) 등 사용자의 관심분야나 취미 등에 따라 다양하게 분류되어 제공될 수 있다. 사용자는 아바타 설정 모드에서 자신 또는 상대방이 좋아하거나 관심 있는 분야의 아바타를 선택하여 설정할 수 있다.The terminal controller 27 may set an avatar corresponding to the specific gesture of the counterpart in the avatar setting mode. The avatar may be classified and provided in various ways according to the user's interests or hobbies such as general, weather, sports (golf, basketball, baseball, etc.). In the avatar setting mode, the user may select and set an avatar of a field that the user or the other party likes or is interested in.

예컨대 상대방의 특정 제스처에 따라 표1과 같이 동작할 아바타를 설정할 수 있다. 이때 감정상태는 기쁨, 슬픔, 놀람으로 한정하여 설명하였지만 이에 한정되는 것은 아니다. 또한 각각의 감정상태에 따른 아바타의 동작 또한 이에 한정되는 것은 아니다.For example, an avatar to operate as shown in Table 1 may be set according to a specific gesture of the other party. At this time, the emotional state is described as being limited to joy, sadness, surprise, but is not limited thereto. In addition, the motion of the avatar according to each emotional state is not limited thereto.

기쁨pleasure 슬픔sadness 놀람surprised 일반Normal 아바타가 웃음Avatar laughs 아바타가 울음을
터트림
Avatar crying
Turm
아바타가 눈을
크게 뜸
Avatar eyes
Large moxibustion
날씨weather 아바타가 화창한
날씨에 산책함
Avatar is sunny
Strolling in the weather
아바타가 비를 맞음Avatar rained 아바타 머리 위로
번개가 침
Avatar head up
Lightning strikes
골프golf 아바타가 퍼팅한 공이
홀컵에 들어가 좋아함
The ball put by the avatar
I like the hole cup
아바타의 티샷이 물에
빠져 울음을 터트림
Avatar tee shot in water
I burst out and cry
티샷이 홀인원되어
아바타가 깜짝 놀람
The tee shot is hole-in-one
Avatar is surprised
농구basketball 아바타가 삼점 슛에
성공함
Avatar is on three point shot
Succeeded
아바타가 공을
빼앗김
Avatar hit the ball
Deprived
아바타의 슛이
블락슛을 당함
Avatar shot
Blocked

한편 별도의 아바타를 설정하지 않는 경우, 단말제어부(27)는 디폴트로 서정된 아바타를 사용할 수 있다. 예컨대 일반 아바타가 디폴트로 설정될 수 있다.On the other hand, if a separate avatar is not set, the terminal controller 27 may use an avatar set by default. For example, the general avatar may be set as a default.

여기서 단말제어부(27)는 영상통화 중 상대방의 제스처 인식을 통하여 아바타를 출력할 때 아래와 같은 방식으로 출력할 수 있다.The terminal controller 27 may output the avatar in the following manner when outputting the avatar through gesture recognition of the counterpart during the video call.

먼저 단말제어부(27)는 통신부(21)를 통한 영상통화 중 착신 단말기(40)로부터 수신한 영상데이터에서 상대방이 특정 제스처를 취하는 지를 모니터링한다. 단말제어부(27)는 모니터링 중 상대방이 특정 제스처를 취하면, 특정 제스처에 대응하는 아바타를 저장부(23)에서 추출하고, 추출한 아바타를 출력부(25,26)로 출력한다.First, the terminal controller 27 monitors whether the other party takes a specific gesture in the video data received from the called terminal 40 during the video call through the communication unit 21. When the counterpart takes a specific gesture during monitoring, the terminal controller 27 extracts an avatar corresponding to the specific gesture from the storage unit 23 and outputs the extracted avatar to the output units 25 and 26.

이때 단말제어부(27)는 다음과 같이 모니터링을 수행할 수 있다. 즉 단말제어부(27)는 영상통화 중 착신 단말기(40)로부터 수신한 영상데이터에서 상대방(객체)의 윤곽을 인지하는 알고리듬을 사용하여 상대방 영상을 추출한다. 단말제어부(27)는 추출된 상대방 영상에서 상대방이 취한 제스처를 인식한다. 그리고 단말제어부(27)는 인식한 제스처가 저장부(23)에 저장된 특정 제스처에 포함되는 지를 판단한다. 예컨대, 단말제어부(27)는 수신한 영상의 배경에서 상대방(객체) 영상을 추출하고, 추출한 상대방 영상에서 관심영역을 추출 및 추적하기 위해서, PCA(principal component analysis)를 통해 adaboost를 이용할 수 있다. 여기서 adaboost는 객체의 형태 및 관심영역를 추출 및 추적하기 위한 학습 알고리듬으로, Yoav Freund and Robert E. Schapire 에 의한 "A decision-theoretic generalization of on-line learning and an application to boosting", In Computational Learning Theory: Eurocolt '95, pp. 23-37, Springer-Verlag, 1995에 자세히 기재되어 있다.In this case, the terminal controller 27 may perform monitoring as follows. That is, the terminal controller 27 extracts the counterpart image using an algorithm that recognizes the outline of the counterpart (object) from the image data received from the called terminal 40 during the video call. The terminal controller 27 recognizes the gesture taken by the counterpart from the extracted counterpart image. The terminal controller 27 determines whether the recognized gesture is included in a specific gesture stored in the storage 23. For example, the terminal controller 27 may use adaboost through PCA (principal component analysis) to extract a counterpart (object) image from the background of the received image and to extract and track a region of interest from the extracted counterpart image. Here, adaboost is a learning algorithm for extracting and tracking the shape and the area of interest of an object. "A decision-theoretic generalization of on-line learning and an application to boosting", In Computational Learning Theory by Yoav Freund and Robert E. Schapire: Eurocolt '95, pp. 23-37, Springer-Verlag, 1995.

관심영역은 영상통화 중인 상대방의 감정상태를 사용자에게 전달할 수 있는 상대방 영상에서 선택될 수 있으며, 예컨대 상대방의 얼굴, 양 손, 양 팔, 양 발 중에 적어도 하나를 포함한다.The region of interest may be selected from a counterpart image capable of transmitting the emotional state of the counterpart in a video call to the user, and includes at least one of a face, two hands, both arms, and both feet of the counterpart.

아바타는 상대방이 취한 특정 제스처에 대응하는 설정된 행동 방식으로 동작한다. 특정 제스처에 대응되게 서로 다른 아바타가 설정될 수도 있고, 동일한 아바타에 대해서 행동 방식을 다르게 설정할 수도 있다.The avatar operates in a set manner of action corresponding to a specific gesture taken by the opponent. Different avatars may be set to correspond to a specific gesture, or a different behavior may be set for the same avatar.

다음으로 단말제어부(27)는 통신부(12)를 통한 영상통화 중 착신 단말기(40)로부터 수신한 영상데이터를 분석하여 상대방이 취하는 제스처에 따른 관심영역을 추출하여 추적한다. 단말제어부(27)는 추적한 관심영역에 대응되게 아바타를 변형한다. 그리고 단말제어부(27)는 변형된 아바타를 출력한다. 즉 아바타는 단말제어부(27)의 제어에 따라 상대방이 취한 제스처에 대응하는 행동 방식으로 동작한다.Next, the terminal controller 27 analyzes the image data received from the called terminal 40 during the video call through the communication unit 12 to extract and track the region of interest according to the gesture taken by the other party. The terminal controller 27 transforms the avatar to correspond to the tracked ROI. The terminal controller 27 outputs the modified avatar. That is, the avatar operates in a manner of action corresponding to a gesture taken by the counterpart under the control of the terminal controller 27.

이때 단말제어부(27)는 다음과 같이 관심영역을 추출하여 추적할 수 있다. 즉 단말제어부(27)는 영상통화 중 착신 단말기(40)로부터 수신한 영상데이터에서 상대방 영상을 추출한다. 단말제어부(27)는 추출된 상대방 영상에서 관심영역을 추출한다. 그리고 단말제어부(27)는 추출된 관심영역의 변화를 추적한다. 예컨대 단말제어부(27)는 수신한 영상의 배경에서 상대방(객체) 영상을 추출하고, 추출한 상대방 영상에서 관심영역을 추출 및 추적하기 위해서, PCA를 통해 adaboost를 이용할 수 있다.In this case, the terminal controller 27 can extract and track the ROI as follows. That is, the terminal controller 27 extracts the counterpart image from the image data received from the called terminal 40 during the video call. The terminal controller 27 extracts a region of interest from the extracted counterpart image. The terminal controller 27 tracks the extracted change of the ROI. For example, the terminal controller 27 may use adaboost through the PCA to extract the other party's (object) image from the background of the received image and to extract and track the ROI from the extracted other party's image.

그리고 단말제어부(27)는 아바타를 표시부(25)에 표시할 때, 수신한 영상데이터에 중첩하여 표시하거나, PIP(Picture In Picture) 형태로 표시할 수 있다.When the avatar controller 27 displays the avatar on the display unit 25, the terminal controller 27 may overlap the received image data or display the picture in a picture in picture (PIP) form.

이와 같이 제1 실시예에 따른 감정 전달 시스템(100)의 영상통화 단말기(20,40)는 영상통화 중 상대방 단말기로부터 수신한 영상데이터에서 상대방이 특정 제스처를 취하게 되면 특정 제스처에 대응하는 아바타를 수신한 영상데이터와 함께 출력하여 상대방의 감정상태를 사용자에게 전달할 수 있다. 즉 영상통화 단말기(20,40)는 상대방의 영상 및 음성뿐만 아니라 상대방이 취한 제스처에 따른 아바타를 출력하여 상대방의 감정상태를 사용자에게 효과적으로 전달할 수 있다.As described above, the video call terminals 20 and 40 of the emotion transmitting system 100 according to the first embodiment select an avatar corresponding to the specific gesture when the other party takes a specific gesture in the image data received from the counterpart terminal during the video call. It can be output along with the received image data to convey the emotional state of the other party to the user. That is, the video call terminals 20 and 40 may effectively transmit the emotional state of the other party to the user by outputting the avatar according to the gestures of the other party as well as the other party's video and voice.

그리고 영상통화 단말기(20,40)는 상대방의 특정 제스처에 대응하는 아바타를 출력하면서 영상통화를 수행할 수 있고, 사용자는 영상통화시 사용할 아바타를 자신이 직접 설정하여 사용할 수 있기 때문에, 영상통화자의 다양한 요구를 충족시키면서 영상통화자의 흥미를 유발하여 영상통화의 사용을 확대할 수 있다. 즉 사용자는 영상통화 단말기(20,40)를 통하여 상대방의 적어도 하나의 특정 제스처에 대응하는 아바타의 모습이나 행동 방식을 직접 설정할 수 있기 때문에, 사용자의 개성을 추구하면서 보다 흥미롭게 영상통화를 사용할 수 있는 환경을 제공할 수 있다.The video call terminals 20 and 40 may perform a video call while outputting an avatar corresponding to a specific gesture of the other party, and the user may directly set and use an avatar to be used during the video call. While satisfying various needs, it is possible to expand the use of video calls by inducing interest of the video callers. That is, since the user can directly set the appearance or behavior of the avatar corresponding to at least one specific gesture of the other party through the video call terminals 20 and 40, the user can use the video call more interestingly while pursuing the user's personality. It can provide an environment.

제1 실시예에 따른 영상통화 중 감정 전달 시스템(100)의 감정 전달 방법의 일 예에 대해서 도 1 내지 도 3을 참조하여 설명하면 다음과 같다. 여기서 도 3은 본 발명의 제1 실시예에 따른 영상통화 중 감정 전달 방법의 일 예에 따른 흐름도이다.An example of an emotion delivery method of the emotion delivery system 100 during a video call according to the first embodiment will be described with reference to FIGS. 1 to 3. 3 is a flowchart illustrating an example of a method for transmitting emotion during a video call according to the first embodiment of the present invention.

먼저 S51단계에서 발신 단말기(20)가 영상 호를 발신하면, S53단계에서 통신망(10)은 이를 수신하여 착신 단말기(40)로 영상 호 착신을 요청한다. 즉, 발신 단말기(20)가 영상 호를 발신하면, 호제어기(14)는 위치등록기(16)로 발신 및 착신 단말기(20,40)의 가입자 정보(위치 정보 및 부가 서비스 정보)를 요청한다. 호제어기(14)는 수신한 가입자 정보를 토대로 라우팅 정보를 획득한다. 호제어기(14)는 획득한 라우팅 정보를 이용하여 착신 단말기(40)로 영상 호 착신을 요청한다.First, when the calling terminal 20 transmits a video call in step S51, the communication network 10 receives the request in step S53 and requests a video call to the called terminal 40. That is, when the calling terminal 20 sends a video call, the call controller 14 requests the subscriber information (location information and additional service information) of the calling and destination terminals 20 and 40 to the location register 16. The call controller 14 obtains routing information based on the received subscriber information. The call controller 14 requests video call reception to the called terminal 40 using the obtained routing information.

한편 S51단계를 수행하기 전에, 발신 단말기(20)는 입력부(22)를 통한 사용자의 선택 신호에 따라 아바타 설정 모드에서 상대방의 특정 제스처에 대응하는 아바타를 설정할 수 있다. 사용자는 아바타 설정 모드에서 자신 또는 상대방이 좋아하거나 관심 있는 분야의 아바타를 선택하여 설정할 수 있다.Meanwhile, before performing step S51, the calling terminal 20 may set an avatar corresponding to the specific gesture of the other party in the avatar setting mode according to the user's selection signal through the input unit 22. In the avatar setting mode, the user may select and set an avatar of a field that the user or the other party likes or is interested in.

다음으로 S55단계에서 착신 단말기(40)가 영상 호에 대한 수락을 통신망(10)으로 전송하면, S57단계에서 통신망(10)은 발신 단말기(20)와 착신 단말기(40) 간에 영상통화를 위한 영상 호 경로를 설정한다. 즉 호제어기(14)는 착신 단말기(40)를 페이징하여 착신을 요청하고, 착신 단말기(40)가 착신 요청에 대하여 호를 수락하면, 호제어기(14)는 발신 단말기(20)와 착신 단말기(40) 간에 영상 호 경로를 설정한다.Next, when the called terminal 40 transmits the acceptance of the video call to the communication network 10 in step S55, the communication network 10 transmits the video for the video call between the calling terminal 20 and the called terminal 40 in step S57. Set the call path. That is, the call controller 14 requests the incoming call by paging the called terminal 40, and when the called terminal 40 accepts the call for the incoming request, the call controller 14 calls the calling terminal 20 and the called terminal ( 40) to set the video call path.

이와 같이 발신 단말기(20)와 착신 단말기(40) 간에 영상 호 경로가 설정된 후, 설정된 영상 호 경로를 통해 발신 단말기(20)와 착신 단말기(40)는 영상통화를 수행하게 된다.As such, after the video call path is set between the calling terminal 20 and the called terminal 40, the calling terminal 20 and the called terminal 40 perform a video call through the set video call path.

다음으로 S59단계에서 영상통화 중 발신 단말기(20)가 사용자로부터 아바타 제공 요청 신호가 입력되는 지의 여부를 판단한다. 이때 사용자는 입력부(22)를 통하여 아바타 제공 요청 신호를 입력할 수 있다.Next, in operation S59, the calling terminal 20 determines whether an avatar providing request signal is input from the user. In this case, the user may input an avatar providing request signal through the input unit 22.

S59단계의 판단 결과 입력되지 않은 경우, 발신 단말기(20)는 S57단계에 따른 영상통화를 계속적으로 수행한다.If it is determined that the determination in step S59 is not input, the calling terminal 20 continuously performs a video call according to step S57.

S59단계의 판단 결과 입력된 경우, S61단계 내지 S65단계에서 발신 단말기(20)는 착신 단말기(20)의 사용자 즉 상대방이 특정 제스처를 취하는 지의 여부를 모니터링한다. 모니터링 단계를 구체적으로 설명하면 다음과 같다.When the determination result of step S59 is input, in steps S61 to S65, the calling terminal 20 monitors whether the user of the called terminal 20, that is, the counterpart, makes a specific gesture. The monitoring step is described in detail as follows.

S61단계에서 발신 단말기(20)는 착신 단말기(40)로부터 수신한 영상데이터에서 상대방 영상을 추출한다. 수신한 영상데이터는 복수의 프레임 영상 데이터를 포함하며, 일정 시간에 수신되는 영상데이터에 포함된 복수의 프레임 영상 데이터에서 일정 수의 영상데이터를 캡쳐하고, 캡쳐한 영상데이터에서 상대방 영상을 추출할 수 있다.In step S61, the calling terminal 20 extracts the other party's video from the image data received from the called terminal 40. The received image data includes a plurality of frame image data, and captures a predetermined number of image data from the plurality of frame image data included in the image data received at a predetermined time, and extracts the counterpart image from the captured image data. have.

이어서 S63단계에서 발신 단말기(20)는 추출한 상대방 영상에서 상대방이 취한 제스처를 인식한다. 이때 발신 단말기(20)는 추출한 상대방 영상에서 다음과 같은 방식으로 상대방이 취한 제스처를 인식할 수 있다. 즉 발신 단말기(20)는 추출한 상대방 영상에서 상대방이 취하는 제스처에 따른 관심영역을 추출하여 추적한다. 발신 단말기(20)는 추적한 관심영역을 이용하여 상대방의 제스처를 인식한다. 예컨대 단말제어부(27)는 수신한 영상의 배경에서 상대방(객체) 영상을 추출하고, 추출한 상대방 영상에서 관심영역을 추출 및 추적하기 위해서, PCA를 통해 adaboost를 이용할 수 있다.Subsequently, in step S63, the calling terminal 20 recognizes the gesture of the other party from the extracted other party's image. In this case, the calling terminal 20 may recognize the gesture taken by the counterpart from the extracted counterpart image in the following manner. That is, the calling terminal 20 extracts and tracks a region of interest according to the gesture of the counterpart from the extracted counterpart image. The calling terminal 20 recognizes a gesture of the other party using the tracked ROI. For example, the terminal controller 27 may use adaboost through the PCA to extract the other party's (object) image from the background of the received image and to extract and track the ROI from the extracted other party's image.

다음으로 S65단계에서 발신 단말기(20)는 인식한 제스처가 저장부(23)에 저장된 특정 제스처인지의 여부를 판단한다. 예컨대 발신 단말기(20)는 인식한 제스처에 포함된 관심영역과 저장된 특정 제스처의 관심영역을 비교하여 일치하는 특정 제스처가 있는 지의 여부로 S65단계를 수행할 수 있다.Next, in step S65, the calling terminal 20 determines whether the recognized gesture is a specific gesture stored in the storage unit 23. For example, the calling terminal 20 may perform step S65 by comparing the region of interest included in the recognized gesture with the region of interest of the stored specific gesture or not.

S65단계의 판단 결과 저장된 특정 제스처가 아닌 경우, 발신 단말기(20)는 S61단계부터 다시 수행한다.If the result of the determination in step S65 is not a stored specific gesture, the calling terminal 20 performs again from step S61.

S65단계의 판단 결과 저장된 특정 제스처인 경우, S67단계에서 발신 단말기(20)는 특정 제스처에 대응하는 아바타를 저장부(23)에서 추출한다. 예컨대 사용자가 골프 아바타를 설정한 상태에서, 발신 단말기(20)가 특정 제스처로서 상대방의 활짝 웃는 모습을 인지하면, 골프 아바타에서 기쁨을 표현하는 아바타를 추출한다.In the case of a specific gesture stored as a result of the determination in step S65, in operation S67, the calling terminal 20 extracts an avatar corresponding to the specific gesture from the storage unit 23. For example, when the user sets the golf avatar and the calling terminal 20 recognizes the other person's smile as a specific gesture, the avatar extracting the joy is extracted from the golf avatar.

그리고 S69단계에서 발신 단말기(20)는 추출한 아바타를 출력부(25,26)을 통하여 출력한다. 이때 발신 단말기(20)는 수신한 영상데이터와 함께 아바타를 출력한다. 예컨대 추출한 아바타가 골프 아바타에서 기쁨을 표현하는 아바타인 경우, 발신 단말기(20)는 아바타가 퍼팅한 공이 홀컵에 들어가 좋아하는 모습을 출력하여 상대방의 기분 좋은 감정상태를 사용자에게 전달한다. 이때 아바타는 표시부(25)에 표시될 때, 수신한 영상데이터에 중첩되어 표시되거나 PIP 형태로 표시될 수 있다.In operation S69, the calling terminal 20 outputs the extracted avatar through the output units 25 and 26. At this time, the calling terminal 20 outputs the avatar together with the received image data. For example, when the extracted avatar is an avatar expressing joy in the golf avatar, the calling terminal 20 outputs a favorite figure in which the ball put by the avatar enters the hole cup and delivers a pleasant emotional state of the other party to the user. In this case, when the avatar is displayed on the display unit 25, the avatar may be displayed by being superimposed on the received image data or displayed in a PIP form.

따라서 발신 단말기(20)의 사용자는 출력되는 아바타를 통하여 착신 단말기(40) 사용자의 감정상태를 쉽게 알 수 있다. 예컨대 상대방이 고개를 좌우로 흔드는 제스처를 취하는 경우, 거부, 싫음 등과 같은 부정적인 감정상태를 표현하고자 할 때 취하는 제스처이다. 발신 단말기(20)가 이와 같은 부정적인 감정상태에 따른 상대방의 특정 제스처를 인식하면, 아바타의 표정이나 행동을 통하여 부정적인 감정상태를 표현하여 사용자에게 전달한다.Therefore, the user of the calling terminal 20 can easily know the emotional state of the user of the called terminal 40 through the output avatar. For example, when the other person shakes his head from side to side, it is a gesture that is taken when expressing a negative emotional state such as rejection or dislike. When the calling terminal 20 recognizes the specific gesture of the counterpart according to the negative emotional state, the negative terminal expresses the negative emotional state through the facial expression or behavior of the avatar and transmits it to the user.

한편 상기한 설명에서는 발신 단말기(20)에서 아바타 제공 요청 신호를 발신하는 예를 개시하였지만, 발신 단말기(20) 또는 착신 단말기(40)에서 아바타 제공 요청 신호를 발신할 수 있다.Meanwhile, in the above description, an example in which the calling terminal 20 transmits an avatar providing request signal is disclosed, but the calling terminal 20 or the called terminal 40 may send an avatar providing request signal.

제1 실시예에 따른 영상통화 중 감정 전달 시스템(100)의 감정 전달 방법의 다른 예에 대해서 도 1, 도 2 및 도 4를 참조하여 설명하면 다음과 같다. 여기서 도 4는 본 발명의 제1 실시예에 따른 영상통화 중 감정 전달 방법의 다른 예에 따른 흐름도이다.Another example of an emotion delivery method of the emotion delivery system 100 during a video call according to the first embodiment will be described with reference to FIGS. 1, 2, and 4 as follows. 4 is a flowchart illustrating another example of a method for transmitting emotion during a video call according to the first embodiment of the present invention.

먼저 S51단계 내지 S61단계까지는 도 3의 감정 전달 방법에 따른 일 예와 동일하게 진행되기 때문에 상세한 설명은 생략하고, S61단계에 따른 수신한 영상에서 상대방 영상을 추출하는 단계 이후부터 설명하면 다음과 같다.First, since steps S51 to S61 proceed in the same manner as the example of the emotion transmitting method of FIG. 3, a detailed description thereof will be omitted and the following description will be made after extracting the counterpart image from the received image according to step S61. .

다음으로 S62단계에서 발신 단말기(20)는 추출한 상대방 영상에서 상대방이취하는 제스처에 따른 관심영역을 추출하여 추적한다.Next, in step S62, the calling terminal 20 extracts and tracks a region of interest according to the gesture taken by the counterpart from the extracted counterpart image.

다음으로 S64단계에서 발신 단말기(20)는 추적한 관심영역에 대응되게 아바타를 변형한다. 즉 발신 단말기(20)는 저장부(23)로부터 사용자가 설정한 아바타를 호출한다. 이어서 발신 단말기(20)는 추적한 관심영역에 대응되는 아바타의 관심영역을 추적한 관심영역에 대응되게 변형한다. 예컨대, 상대방이 양 팔 또는 양 손을 사용하여 하트 모양의 제스처를 취하는 경우, 아바타 제공서버(30)는 상대방의 제스처와 동일하게 아바타의 양 팔 또는 양 손을 사용하여 하트 모양의 제스처를 취하도록 변형한다.Next, in step S64, the calling terminal 20 deforms the avatar to correspond to the tracked ROI. That is, the calling terminal 20 calls the avatar set by the user from the storage 23. Subsequently, the calling terminal 20 deforms the region of interest of the avatar corresponding to the region of interest tracked to correspond to the region of interest tracked. For example, when the other party makes a heart-shaped gesture by using both arms or hands, the avatar providing server 30 performs a heart-shaped gesture by using both arms or hands of the avatar in the same manner as the other party's gesture. Transform.

여기서 아바타는 발신 단말기(20)의 사용자가 설정한 아바타이다. 사용자는 착신 단말기(40)의 사용자에 따라서 아바타를 다르게 설정할 수도 있다.Here, the avatar is an avatar set by the user of the calling terminal 20. The user may set the avatar differently according to the user of the called terminal 40.

그리고 S66단계에서 발신 단말기(20)는 변형한 아바타를 출력부(25,26)로 출력한다. 이때 발신 단말기(20)는 수신한 영상데이터와 함께 아바타를 출력한다. 예컨대 아바타는 표시부(25)에 표시될 때, 수신한 영상데이터에 중첩되어 표시되거나 PIP 형태로 표시될 수 있다.In operation S66, the calling terminal 20 outputs the modified avatar to the output units 25 and 26. At this time, the calling terminal 20 outputs the avatar together with the received image data. For example, when the avatar is displayed on the display unit 25, the avatar may be displayed by being superimposed on the received image data or displayed in a PIP form.

따라서 발신 단말기(20)의 사용자는 출력되는 아바타를 통하여 착신 단말기(40) 사용자의 감정상태를 쉽게 알 수 있다.Therefore, the user of the calling terminal 20 can easily know the emotional state of the user of the called terminal 40 through the output avatar.

한편 상기한 설명에서는 발신 단말기(20)에서 아바타 제공 요청 신호를 발신하는 예를 개시하였지만, 발신 단말기(20) 또는 착신 단말기(40)에서 아바타 제공 요청 신호를 발신할 수 있다.Meanwhile, in the above description, an example in which the calling terminal 20 transmits an avatar providing request signal is disclosed, but the calling terminal 20 or the called terminal 40 may send an avatar providing request signal.

그리고 제1 실시예에 따른 영상통화 중 감정 전달 시스템(100)은 아바타 제공 요청 신호를 입력하는 사용자의 요청에 따라 영상통화 단말기(20,40)가 상대방의 제스처에 대응하는 아바타를 화면에 출력하는 예를 개시하였지만 이에 한정되는 것은 아니다. 예컨대 영상통화 단말기(20,40)는 사용자의 설정에 따라 사용자가 아바타 제공 요청 신호를 입력하지 않더라도 영상통화 시 상대방의 제스처에 따른 아바타를 추출하여 출력부(25,26)로 출력할 수도 있다.In the video call according to the first embodiment, the emotion delivery system 100 outputs an avatar corresponding to a gesture of the other party to the screen by the video call terminals 20 and 40 according to a user's request for inputting an avatar providing request signal. An example has been disclosed but is not limited thereto. For example, the video call terminals 20 and 40 may extract the avatar according to the gesture of the other party and output the output to the output units 25 and 26 even when the user does not input the avatar providing request signal according to the user's setting.

한편 제1 실시예에 따른 영상통화 중 감정 전달 시스템(100)은 발신 단말기(20) 또는 착신 단말기(40)가 상대방의 제스처에 대응하는 아바타를 출력하는 예를 개시하였지만 이에 한정되는 것은 아니다. 즉 도 5에 도시된 바와 같이 발신 단말기(20) 또는 착신 단말기(40)의 요청에 따라 아바타 제공서버(30)를 통하여 아바타를 수신하여 출력할 수 있다.Meanwhile, the emotion transmitting system 100 during the video call according to the first embodiment discloses an example in which the calling terminal 20 or the called terminal 40 outputs an avatar corresponding to a gesture of the other party, but is not limited thereto. That is, as shown in FIG. 5, the avatar may be received and output through the avatar providing server 30 at the request of the calling terminal 20 or the called terminal 40.

본 발명의 제2 실시예에 따른 영상통화 중 감정 전달 시스템(200)은, 도 5에 도시된 바와 같이, 통신망(10)을 매개로 연결된 발신 단말기(20), 아바타 제공서버(30) 및 착신 단말기(40)를 포함하여 구성된다.In the video call emotional delivery system 200 according to the second embodiment of the present invention, as shown in FIG. 5, the originating terminal 20, the avatar providing server 30, and the incoming call are connected via the communication network 10. It is configured to include a terminal 40.

발신 단말기(20)와 착신 단말기(40)는 통신망(10)을 매개로 서로 간에 영상통화를 수행한다. 발신 단말기(20) 또는 착신 단말기(40)로부터 아바타 제공 요청 신호가 입력되면, 아바타 제공 요청 신호를 발신한 단말기는 아바타 제공 요청 신호를 통신망(10)를 통하여 아바타 제공서버(30)로 전송한다.The calling terminal 20 and the called terminal 40 perform a video call with each other via the communication network 10. When the avatar providing request signal is input from the calling terminal 20 or the called terminal 40, the terminal which sends the avatar providing request signal transmits the avatar providing request signal to the avatar providing server 30 through the communication network 10.

통신망(10)은 발신 단말기(20), 아바타 제공서버(30) 및 착신 단말기(40) 사이의 데이터 전송 및 정보 교환을 위한 일련의 데이터 송수신 동작을 수행한다. 특히 통신망(10)은 영상통화 중인 발신 단말기(20) 또는 착신 단말기(40)로부터 아바타 제공 요청 신호를 수신하면, 아바타 제공서버(30)와 발신 단말기(20) 간의 세션 및 아바타 제공서버(30)와 착신 단말기(40) 간의 세션을 설정한다. 즉 발신 단말기(20)로부터 영상 호를 수신하면, 통신망(10)은 발신 단말기(20)와 착신 단말기(30) 간의 영상통화를 위한 영상 호 경로를 설정한다. 통신망(10)이 영상통화 중 발신 단말기(20) 또는 착신 단말기(40)로부터 아바타 제공 요청 신호를 수신하면, 통신망(10)은 발신 단말기(20) 및 착신 단말기(40) 간의 설정된 영상 호 경로를 해제하고, 아바타 제공서버(30)와 발신 단말기(20) 간의 세션 및 아바타 제공서버(30)와 착신 단말기(40) 간의 세션을 설정한다.The communication network 10 performs a series of data transmission / reception operations for data transmission and information exchange between the calling terminal 20, the avatar providing server 30, and the called terminal 40. In particular, when the communication network 10 receives the avatar providing request signal from the calling terminal 20 or the called terminal 40 in the video call, the session providing server 30 and the avatar providing server 30 between the avatar providing server 30 and the calling terminal 20 are received. And establish a session between the called terminal 40. That is, when receiving a video call from the calling terminal 20, the communication network 10 sets the video call path for the video call between the calling terminal 20 and the called terminal 30. When the communication network 10 receives an avatar providing request signal from the calling terminal 20 or the called terminal 40 during a video call, the communication network 10 determines a video call path established between the calling terminal 20 and the called terminal 40. It releases and sets the session between the avatar providing server 30 and the calling terminal 20 and the session between the avatar providing server 30 and the called terminal 40.

그리고 아바타 제공서버(30)는 통신망(10)을 매개로 발신 단말기(20) 및 착신 단말기(30)와 통신을 수행한다. 아바타 제공서버(30)는 발신 단말기(20) 또는 착신 단말기(40)로부터 아바타 제공 요청 신호를 수신하면, 아바타 제공 요청 신호를 발신한 단말기의 상대방이 취한 특정 제스처에 대응하는 아바타를 영상통화 트래픽에 실어서 사용자 단말기로 전송한다. 한편으로 아바타는 현재 설정된 영상 호 경로 이외에 별도의 SMS(short Message Service) 또는 MMS(Multimedia Message Service)와 같은 메시지 서비스 채널을 통하여 사용자 단말기로 전송될 수 있다.The avatar providing server 30 communicates with the calling terminal 20 and the called terminal 30 via the communication network 10. When the avatar providing server 30 receives the avatar providing request signal from the calling terminal 20 or the called terminal 40, the avatar providing server 30 sends an avatar corresponding to a specific gesture taken by the other party of the terminal sending the avatar providing request signal to the video call traffic. Load it to the user terminal. Meanwhile, the avatar may be transmitted to the user terminal through a message service channel such as a short message service (SMS) or a multimedia message service (MMS) in addition to the currently set video call path.

사용자 단말기는 수신한 아바타를 포함한 상대방 영상을 표시한다. 이때 사용자 단말기는 영상데이터와 아바타를 표시부(25)에 표시할 때, 영상데이터와 아바타를 중첩하여 표시하거나 PIP 형태로 표시할 수 있다. 따라서 사용자는 수신한 아바타를 통하여 상대방의 감정상태를 알 수 있다.The user terminal displays the counterpart image including the received avatar. In this case, when the user terminal displays the image data and the avatar on the display unit 25, the user terminal may display the image data and the avatar in a superimposed manner or in a PIP form. Therefore, the user can know the emotional state of the other party through the received avatar.

특히 제2 실시예에 따른 아바타 제공서버(30)는 송수신부(31), 데이터베이스부(33) 및 제어부(35)를 포함하여 구성된다.In particular, the avatar providing server 30 according to the second exemplary embodiment includes a transceiver 31, a database 33, and a controller 35.

송수신부(31)는 통신망(10)을 매개로 발신 단말기(20) 및 착신 단말기(40)와 통신을 수행한다. 송수신부(31)는 제어부(35)의 제어에 따라 발신 단말기(20) 또는 착신 단말기(40)로부터 아바타 제공 요청 신호를 수신한다. 송수신부(31)는 제어부(35)의 제어에 따라 아바타 제공 요청 신호를 발신한 단말기의 상대방이 취한 특정 제스처에 대응하는 아바타를 영상통화 트래픽에 실어서 사용자 단말기로 전송한다.The transceiver 31 communicates with the calling terminal 20 and the called terminal 40 via the communication network 10. The transceiver 31 receives the avatar providing request signal from the calling terminal 20 or the called terminal 40 under the control of the controller 35. The transmission / reception unit 31 loads the avatar corresponding to the specific gesture taken by the counterpart of the terminal that has sent the avatar providing request signal on the video call traffic to the user terminal under the control of the control unit 35.

데이터베이스부(33)는 발신 단말기(20) 또는 착신 단말기(40)를 포함하는 영상통화 단말기의 특정 제스처에 대응하는 아바타를 저장한다. 또한 데이터베이스부(33)는 영상통화 단말기(20,40)의 사용자에 의해 설정된 아바타를 저장할 수 있다. 이때 데이터베이스부(33)는 상대방의 단말정보에 매칭하여 아바타를 저장한다.The database unit 33 stores the avatar corresponding to the specific gesture of the video call terminal including the calling terminal 20 or the called terminal 40. In addition, the database unit 33 may store the avatar set by the user of the video call terminals 20 and 40. At this time, the database unit 33 matches the terminal information of the other party and stores the avatar.

그리고 제어부(35)는 아바타 제공서버(30)의 전반적인 제어 동작을 수행한다. 특히 제어부(35)는 영상통화 중 상대방의 제스처 인식을 통한 사용자 단말기로의 아바타 전송을 제어한다.In addition, the controller 35 performs an overall control operation of the avatar providing server 30. In particular, the controller 35 controls the transmission of the avatar to the user terminal through gesture recognition of the other party during the video call.

제어부(35)는 아바타 설정 모드에서, 영상통화 단말기(20,40)를 통한 사용자의 선택 신호에 따라 상대방의 특정 제스처에 대응하는 아바타를 설정할 수 있다. 이때 제어부(35)에 의한 아바타의 설정은 도 2의 단말제어부(23)에 의한 설정 방식과 동일한 방식으로 수행될 수 있기 때문에, 상세한 설명은 생략한다.In the avatar setting mode, the controller 35 may set an avatar corresponding to a specific gesture of the counterpart according to a user's selection signal through the video call terminals 20 and 40. In this case, since the setting of the avatar by the control unit 35 may be performed in the same manner as the setting method by the terminal control unit 23 of FIG. 2, a detailed description thereof will be omitted.

제어부(35)는 영상통화 중 상대방 단말기로부터 수신한 영상데이터를 분석하여 상대방이 특정 제스처를 취하는 지를 모니터링하고, 모니터링 중 상대방이 취한 특정 제스처에 대응하는 아바타의 전송을 제어한다. 이때 제어부(35)는 영상통화 중 아바타 제공 요청 신호를 발신한 단말기의 상대방의 제스처 인식을 통하여 아바타를 전송할 때 아래와 같은 방식으로 전송할 수 있다.The controller 35 analyzes the image data received from the counterpart terminal during the video call, monitors whether the counterpart takes a specific gesture, and controls the transmission of the avatar corresponding to the specific gesture taken by the counterpart during monitoring. In this case, the controller 35 may transmit the avatar in the following manner when transmitting the avatar through gesture recognition of the counterpart of the terminal that has sent the avatar providing request signal during the video call.

먼저 제어부(35)는 영상통화 중인 발신 단말기(20) 또는 착신 단말기(40)의 아바타 제공 요청 신호에 따라 통신망(10)에 의해 발신 단말기(20) 및 착신 단말기(40)와 각각 세션을 설정한다. 제어부(35)는 아바타 제공 요청 신호를 발신한 단말기의 상대방 단말기로부터 상대방 영상을 포함한 영상데이터를 수신하고, 수신한 영상데이터를 분석하여 상대방이 특정 제스처를 취하는 지를 모니터링한다. 제어부(35)는 모니터링 중 상대방이 특정 제스처를 취하면, 특정 제스처에 대응하는 아바타를 데이터베이스부(33)에서 추출한다. 그리고 제어부(35)는 추출한 아바타를 포함하는 영상통화 트래픽을 사용자 단말기로 전송한다.First, the control unit 35 establishes a session with the calling terminal 20 and the called terminal 40 by the communication network 10 according to the avatar providing request signal of the calling terminal 20 or the called terminal 40 during the video call. . The controller 35 receives image data including the other party's image from the other party's terminal of the terminal which has sent the avatar providing request signal, and analyzes the received image data to monitor whether the other party's specific gesture is performed. The controller 35 extracts an avatar corresponding to the specific gesture from the database unit 33 when the counterpart takes a specific gesture during monitoring. The controller 35 transmits the video call traffic including the extracted avatar to the user terminal.

이때 아바타는 상대방이 취한 특정 제스처에 대응하는 설정된 행동 방식으로 동작한다. 특정 제스처에 대응되게 서로 다른 아바타가 설정될 수도 있고, 동일한 아바타에 대해서 행동 방식을 다르게 설정할 수도 있다.In this case, the avatar operates in a set manner of action corresponding to a specific gesture taken by the other party. Different avatars may be set to correspond to a specific gesture, or a different behavior may be set for the same avatar.

다음으로 제어부(35)는 영상통화 중인 발신 단말기(20) 또는 착신 단말기(40)의 아바타 제공 요청 신호에 따라 통신망(10)에 의해 발신 단말기(20) 및 착신 단말기(40)와 각각 세션을 설정한다. 제어부(35)는 아바타 제공 요청 신호를 발신한 단말기의 상대방 단말기로부터 촬영된 상대방의 영상을 포함한 영상데이터를 수신하고, 영상데이터를 분석하여 상대방이 취하는 제스처에 따른 관심영역을 추출하여 추적한다. 제어부(35)는 추적한 관심영역에 대응되게 아바타를 변형한다. 그리고 제어부(35)는 변형된 아바타를 포함하는 영상통화 트래픽을 사용자 단말기로 전송한다. 이때 제어부(35)는 사용자가 설정한 아바타를 데이터베이스부(33)에서 호출하며, 상대방이 취한 제스처에 대응하는 행동 방식으로 동작하도록 호출한 아바타를 변형한다.Next, the control unit 35 sets up a session with the calling terminal 20 and the called terminal 40 by the communication network 10 according to the avatar providing request signal of the calling terminal 20 or the called terminal 40 during the video call. do. The controller 35 receives image data including an image of the counterpart photographed from the counterpart terminal of the terminal that has sent the avatar providing request signal, analyzes the image data, and extracts and tracks a region of interest according to a gesture taken by the counterpart. The controller 35 transforms the avatar to correspond to the tracked ROI. The controller 35 transmits video call traffic including the modified avatar to the user terminal. At this time, the control unit 35 calls the avatar set by the user in the database unit 33 and deforms the called avatar to operate in an action manner corresponding to the gesture taken by the counterpart.

이때 제어부(35)는 다음과 같이 관심영역을 추적할 수 있다. 즉 제어부(35)는 수신한 촬영된 영상에서 상대방 영상을 추출한다. 제어부(35)는 추출된 상대방 영상에서 관심영역을 추출한다. 그리고 제어부(35)는 추출된 관심영역의 변화를 추적한다. 예컨대, 제어부(35)는 수신한 영상의 배경에서 상대방(객체) 영상을 추출하고, 추출한 상대방 영상에서 관심영역을 추출 및 추적하기 위해서, PCA를 통해 adaboost를 이용할 수 있다. 관심영역은 영상통화 중인 상대방의 감정상태를 사용자에게 전달할 수 있는 상대방 영상에서 선택될 수 있으며, 예컨대 상대방의 얼굴, 양 손, 양 팔, 양 발 중에 적어도 하나를 포함한다.In this case, the controller 35 may track the ROI as follows. That is, the controller 35 extracts the counterpart image from the received captured image. The controller 35 extracts a region of interest from the extracted counterpart image. The controller 35 tracks the change of the extracted ROI. For example, the controller 35 may use adaboost through the PCA to extract the counterpart (object) image from the background of the received image, and to extract and track the ROI from the extracted counterpart image. The region of interest may be selected from a counterpart image capable of transmitting the emotional state of the counterpart in a video call to the user, and includes at least one of a face, two hands, both arms, and both feet of the counterpart.

한편 상기한 설명에서는 아바타 제공서버(30)가 발신 단말기(20)가 요청한 아바타를 포함한 상대방 영상을 수신하는 예를 개시하였지만, 발신 단말기(20) 또는 착신 단말기(40)가 요청한 아바타를 포함한 상대방 영상을 수신할 수 있다.Meanwhile, in the above description, the avatar providing server 30 discloses an example of receiving the other party's image including the avatar requested by the calling terminal 20, but the other party's image including the avatar requested by the calling terminal 20 or the called terminal 40. Can be received.

제2 실시예에 따른 영상통화 중 감정 전달 시스템(200)의 감정 전달 방법의 일 예에 대해서 도 5 및 도 6을 참조하여 설명하면 다음과 같다. 여기서 도 6은 본 발명의 제2 실시예에 따른 영상통화 중 감정 전달 방법의 일 예에 따른 흐름도이다.An example of an emotion delivery method of the emotion delivery system 200 during a video call according to the second embodiment will be described with reference to FIGS. 5 and 6. 6 is a flowchart illustrating an example of a method for transmitting emotion during a video call according to a second embodiment of the present invention.

먼저 S151단계 내지 S157단계까지는 도 3의 감정 전달 방법에 따른 일 예의 S51단계 내지 S57단계와 동일하게 진행되기 때문에 상세한 설명은 생략하고, S157단계 다음에 수행되는 S159단계부터 설명하면 다음과 같다. 한편 S151단계를 수행하기 전에, 발신 단말기(20)는 입력부(22)를 통한 사용자의 선택 신호에 따라 아바타 설정 모드에서 상대방의 특정 제스처에 대응하는 아바타를 설정할 수 있다. 사용자는 아바타 설정 모드에서 자신 또는 상대방이 좋아하거나 관심 있는 분야의 아바타를 선택하여 설정할 수 있다.First, since steps S151 to S157 proceed in the same manner as steps S51 to S57 according to the example of the emotional delivery method of FIG. 3, a detailed description thereof will be omitted and will be described below from step S159 performed after step S157. Meanwhile, before performing step S151, the calling terminal 20 may set an avatar corresponding to the specific gesture of the other party in the avatar setting mode according to the user's selection signal through the input unit 22. In the avatar setting mode, the user may select and set an avatar of a field that the user or the other party likes or is interested in.

다음으로 S159단계에서 영상통화 중 발신 단말기(20)가 사용자로부터 아바타 제공 요청 신호가 입력되는 지의 여부를 판단한다. 이때 사용자는 입력부(22)를 통하여 아바타 제공 요청 신호를 입력할 수 있다.Next, in operation S159, the calling terminal 20 determines whether an avatar providing request signal is input from the user. In this case, the user may input an avatar providing request signal through the input unit 22.

S159단계의 판단 결과 입력되지 않은 경우, 발신 단말기(20)는 S157단계에 따른 영상통화를 계속적으로 수행한다.If it is not input as a result of determination in step S159, the calling terminal 20 continues to perform the video call according to step S157.

S159단계의 판단 결과 입력된 경우, S161단계 내지 S175단계에서 착신 단말기(40)의 사용자가 특정 제스처를 취하는 지의 여부를 모니터링하는 단계를 수행한다.When the determination result of step S159 is input, in step S161 to step S175 performs a step of monitoring whether or not the user of the called terminal 40 takes a specific gesture.

즉 S161단계에서 발신 단말기(20)는 아바타 제공 요청 신호를 통신망(10)으로 전송한다. S163단계에서 통신망(10)은 수신한 아바타 제공 요청 신호를 아바타 제공서버(30)로 전달한다. 동시에 S165단계 및 S167단계에서 통신망(10)은 아바타 제공서버(30)와 발신 단말기(20) 간의 세션 및 아바타 제공서버(30)와 착신 단말기(40) 간의 세션을 설정한다. 이때 통신망(10)은 S157단계에서 설정된 영상 호 경로를 해제한다. 발신 단말기(20)와 착신 단말기(40)는 각각 아바타 제공서버(30)와 세션이 설정된다.That is, in step S161, the calling terminal 20 transmits an avatar providing request signal to the communication network 10. In operation S 163, the communication network 10 transmits the received avatar providing request signal to the avatar providing server 30. At the same time in steps S165 and S167 the communication network 10 establishes a session between the avatar providing server 30 and the calling terminal 20 and a session between the avatar providing server 30 and the called terminal 40. At this time, the communication network 10 releases the video call path set in step S157. The originating terminal 20 and the terminating terminal 40 are each established with the avatar providing server 30.

다음으로 S169단계에서 착신 단말기(40)는 촬영된 영상데이터를 아바타 제공서버(30)로 전송한다.Next, the receiver terminal 40 transmits the captured image data to the avatar providing server 30 in step S169.

다음으로 S171단계에서 아바타 제공서버(30)는 수신한 영상에서 상대방 영상을 추출한다. 이때 수신한 영상데이터는 복수의 프레임 영상 데이터를 포함하며, 아바타 제공서버(30)는 일정 시간에 수신되는 영상데이터에 포함된 복수의 프레임 영상 데이터에서 일정 수의 영상데이터를 캡쳐하고, 캡쳐한 영상데이터에서 상대방 영상을 추출할 수 있다.Next, in step S171, the avatar providing server 30 extracts the counterpart image from the received image. At this time, the received image data includes a plurality of frame image data, and the avatar providing server 30 captures a predetermined number of image data from the plurality of frame image data included in the image data received at a predetermined time, and captures the captured image. The other party's image may be extracted from the data.

이어서 S173단계에서 아바타 제공서버(30)는 추출한 상대방 영상에서 상대방이 취한 제스처를 인식한다.Subsequently, in step S173, the avatar providing server 30 recognizes a gesture taken by the counterpart from the extracted counterpart image.

이때 아바타 제공서버(30)는 추출한 상대방 영상에서 다음과 같은 방식으로 상대방이 취한 제스처를 인식할 수 있다. 즉 아바타 제공서버(30)는 추출한 상대방 영상에서 상대방이 취하는 제스처에 따른 관심영역을 추출하여 추적한다. 아바타 제공서버(30)는 추적한 관심영역을 이용하여 상대방의 제스처를 인식한다. 이때 아바타 제공서버(30)는 수신한 영상의 배경에서 상대방(객체) 영상을 추출하고, 추출한 상대방 영상에서 관심영역을 추출 및 추적하기 위해서, PCA를 통해 adaboost를 이용할 수 있다.In this case, the avatar providing server 30 may recognize the gesture taken by the counterpart from the extracted counterpart image in the following manner. That is, the avatar providing server 30 extracts and tracks a region of interest according to a gesture taken by the counterpart from the extracted counterpart image. The avatar providing server 30 recognizes a gesture of the other party using the tracked ROI. At this time, the avatar providing server 30 may use the adaboost through the PCA to extract the other party (object) image from the background of the received image, and to extract and track the region of interest from the extracted other party image.

다음으로 S175단계에서 아바타 제공서버(30)는 인식한 제스처가 데이터베이스부(33)에 저장된 특정 제스처인지의 여부를 판단한다. 예컨대 아바타 제공서버(30)는 인식한 제스처에 포함된 관심영역과 저장된 특정 제스처의 관심영역을 비교하여 일치하는 특정 제스처가 있는 지의 여부로 S175단계를 수행할 수 있다.In operation S175, the avatar providing server 30 determines whether the recognized gesture is a specific gesture stored in the database unit 33. For example, the avatar providing server 30 may compare the region of interest included in the recognized gesture with the region of interest of the stored specific gesture and perform step S175 to determine whether there is a specific gesture that matches.

S175단계의 판단 결과 저장된 특정 제스처가 아닌 경우, 아바타 제공서버(30)는 S171단계부터 다시 수행한다.If the result of the determination in step S175 is not a stored specific gesture, the avatar providing server 30 performs again from step S171.

S175단계의 판단 결과 저장된 특정 제스처인 경우, S177단계에서 아바타 제공서버(30)는 특정 제스처에 대응하는 아바타를 데이터베이스부(33)에서 추출한다. 예컨대 사용자가 골프 아바타를 설정한 상태에서, 아바타 제공서버(30)가 특정 제스처로서 상대방의 활짝 웃는 모습을 인지하면, 아바타 제공서버(20)는 골프 아바타에서 기쁨을 표현하는 아바타를 추출한다.In the case of a specific gesture stored as a result of the determination in step S175, in step S177, the avatar providing server 30 extracts an avatar corresponding to the specific gesture from the database unit 33. For example, when the user sets the golf avatar, when the avatar providing server 30 recognizes the other's smile as a specific gesture, the avatar providing server 20 extracts an avatar expressing joy from the golf avatar.

다음으로 S179단계에서 아바타 제공서버(30)는 추출한 아바타를 포함하는 영상통화 트래픽을 발신 단말기(20)로 전송한다.Next, in step S179, the avatar providing server 30 transmits video call traffic including the extracted avatar to the calling terminal 20.

그리고 S181단계에서 발신 단말기(20)는 수신한 아바타가 포함된 상대방 영상을 화면에 표시한다. 예컨대 수신한 아바타가 골프 아바타에서 기쁨을 표현하는 아바타인 경우, 발신 단말기(20)는 아바타가 퍼팅한 공이 홀컵에 들어가 좋아하는 모습을 출력하여 상대방의 기분 좋은 감정상태를 사용자에게 전달한다. 이때 아바타는 화면에 표시될 때, 상대방 영상에 중첩되어 표시되거나 PIP 형태로 표시될 수 있다. 따라서 발신 단말기(20)의 사용자는 출력되는 아바타를 통하여 착신 단말기(40) 사용자의 감정상태를 쉽게 알 수 있다.In operation S181, the calling terminal 20 displays the counterpart image including the received avatar on the screen. For example, when the received avatar is an avatar expressing joy in the golf avatar, the calling terminal 20 outputs a favorite figure in which the ball put by the avatar enters the hole cup and transmits a pleasant emotional state of the other party to the user. In this case, when the avatar is displayed on the screen, the avatar may be overlapped with the counterpart image or may be displayed in a PIP form. Therefore, the user of the calling terminal 20 can easily know the emotional state of the user of the called terminal 40 through the output avatar.

한편 상기한 설명에서는 발신 단말기(20)의 요청에 따라 아바타 제공서버(30)가 아바타를 포함한 상대방 영상을 발신 단말기(20)로 전송하는 예를 개시하였지만, 발신 단말기(20) 또는 착신 단말기(40)의 요청에 따라 아바타 제공서버(30)가 아바타를 포함한 상대방 영상을 사용자 단말기로 전송할 수 있다.Meanwhile, in the above description, although the avatar providing server 30 transmits the counterpart image including the avatar to the calling terminal 20 at the request of the calling terminal 20, the calling terminal 20 or the called terminal 40 is disclosed. ), The avatar providing server 30 may transmit the counterpart image including the avatar to the user terminal.

제2 실시예에 따른 영상통화 중 감정 전달 시스템(200)의 감정 전달 방법의 다른 예에 대해서 도 5 및 도 7을 참조하여 설명하면 다음과 같다. 여기서 도 7은 본 발명의 제2 실시예에 따른 영상통화 중 감정 전달 방법의 다른 예에 따른 흐름도이다.Another example of an emotion delivery method of the emotion delivery system 200 during a video call according to the second embodiment will be described with reference to FIGS. 5 and 7. 7 is a flowchart illustrating another example of a method for transmitting emotion during a video call according to the second embodiment of the present invention.

먼저 S151단계 내지 S171단계는 도 6의 감정 전달 방법에 따른 일 예와 동일하게 진행되기 때문에 상세한 설명은 생략하고, S171단계 다음에 수행되는 S172단계부터 설명하면 다음과 같다. 한편 S151단계를 수행하기 전에, 발신 단말기(20)는 입력부(22)를 통한 사용자의 선택 신호에 따라 아바타 설정 모드에서 상대방의 특정 제스처에 대응하는 아바타를 설정할 수 있다. 사용자는 아바타 설정 모드에서 자신 또는 상대방이 좋아하거나 관심 있는 분야의 아바타를 선택하여 설정할 수 있다.First, since steps S151 to S171 proceed in the same manner as the example according to the emotion transmitting method of FIG. 6, a detailed description thereof will be omitted and described from step S172 performed after step S171 as follows. Meanwhile, before performing step S151, the calling terminal 20 may set an avatar corresponding to the specific gesture of the other party in the avatar setting mode according to the user's selection signal through the input unit 22. In the avatar setting mode, the user may select and set an avatar of a field that the user or the other party likes or is interested in.

다음으로 S172단계에서 아바타 제공서버(30)는 추출한 상대방 영상에서 상대방이 취하는 제스처에 따른 관심영역을 추출하여 추적한다. 이때 아바타 제공서버(30)는 수신한 영상의 배경에서 상대방(객체) 영상을 추출하고, 추출한 상대방 영상에서 관심영역을 추출 및 추적하기 위해서, PCA를 통해 adaboost를 이용할 수 있다.Next, in step S172, the avatar providing server 30 extracts and tracks a region of interest according to a gesture taken by the counterpart from the extracted counterpart image. At this time, the avatar providing server 30 may use the adaboost through the PCA to extract the other party (object) image from the background of the received image, and to extract and track the region of interest from the extracted other party image.

다음으로 S174단계에서 아바타 제공서버(30)는 추적한 관심영역에 대응되게 아바타를 변형한다. 즉 아바타 제공서버(30)는 데이터베이스부(33)로부터 사용자에 의해 설정된 아바타를 호출한다. 이어서 아바타 제공서버(30)는 추적한 관심영역에 대응되는 아바타의 관심영역을 추적한 관심영역에 대응되게 변형한다. 예컨대, 상대방이 양 팔 또는 양 손을 사용하여 하트 모양의 제스처를 취하는 경우, 아바타 제공서버(30)는 상대방의 제스처와 동일하게 아바타의 양 팔 또는 양 손을 사용하여 하트 모양의 제스처를 취하도록 변형한다.Next, in step S174, the avatar providing server 30 deforms the avatar corresponding to the tracked ROI. That is, the avatar providing server 30 calls the avatar set by the user from the database unit 33. Subsequently, the avatar providing server 30 transforms the region of interest of the avatar corresponding to the region of interest tracked to correspond to the region of interest tracked. For example, when the other party makes a heart-shaped gesture by using both arms or hands, the avatar providing server 30 performs a heart-shaped gesture by using both arms or hands of the avatar in the same manner as the other party's gesture. Transform.

여기서 아바타는 발신 단말기(20)의 사용자가 설정한 아바타이다. 사용자는 착신 단말기(40)의 사용자에 따라서 아바타를 다르게 설정할 수도 있다.Here, the avatar is an avatar set by the user of the calling terminal 20. The user may set the avatar differently according to the user of the called terminal 40.

다음으로 S176단계에서 아바타 제공서버(30)는 변형한 아바타를 포함하는 영상통화 트래픽을 발신 단말기(20)로 전송한다. 한편 아바타 제공서버(30)는 현재 설정된 영상 호 경로 이외에 별도의 데이터 서비스 채널을 생성하여 발신 단말기(20)로 변형된 아바타를 전송할 수 있다.Next, the avatar providing server 30 transmits the video call traffic including the modified avatar to the calling terminal 20 in step S176. Meanwhile, the avatar providing server 30 may generate a separate data service channel in addition to the currently set video call path and transmit the modified avatar to the calling terminal 20.

그리고 S178단계에서 발신 단말기(20)는 수신한 아바타가 포함된 상대방 영상을 화면에 표시한다. 예컨대 아바타는 화면에 표시될 때, 상대방 영상에 중첩되어 표시되거나 PIP 형태로 표시될 수 있다. 따라서 발신 단말기(20)의 사용자는 출력되는 아바타를 통하여 착신 단말기(40) 사용자의 감정상태를 쉽게 알 수 있다.In operation S178, the calling terminal 20 displays the counterpart image including the received avatar on the screen. For example, when the avatar is displayed on the screen, the avatar may be superimposed on the counterpart image or displayed in a PIP form. Therefore, the user of the calling terminal 20 can easily know the emotional state of the user of the called terminal 40 through the output avatar.

한편 상기한 설명에서는 발신 단말기(20)의 요청에 따라 아바타 제공서버(30)가 아바타를 포함한 상대방 영상을 발신 단말기(20)로 전송하는 예를 개시하였지만, 발신 단말기(20) 또는 착신 단말기(40)의 요청에 따라 아바타 제공서버가 아바타를 포함한 상대방 영상을 사용자 단말기로 전송할 수 있다.Meanwhile, in the above description, although the avatar providing server 30 transmits the counterpart image including the avatar to the calling terminal 20 at the request of the calling terminal 20, the calling terminal 20 or the called terminal 40 is disclosed. ), The avatar providing server may transmit the other party's image including the avatar to the user terminal.

한편, 본 명세서와 도면에 개시된 본 발명의 실시예들은 이해를 돕기 위해 특정 예를 제시한 것에 지나지 않으며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 것이다.On the other hand, the embodiments of the present invention disclosed in the specification and drawings are merely presented specific examples to aid understanding, and are not intended to limit the scope of the present invention. In addition to the embodiments disclosed herein, it is apparent to those skilled in the art that other modifications based on the technical idea of the present invention may be implemented.

본 발명은 제스처 인식을 통한 영상통화 중 감정 전달 시스템 및 방법에 관한 것으로, 영상통화 단말기는 영상통화 중 상대방 단말기로부터 수신한 영상데이터를 분석하여 감지한 상대방의 제스처에 대응하는 아바타를 출력하면서 영상통화를 수행할 수 있고, 사용자는 영상통화시 사용할 아바타를 자신이 직접 설정하여 사용할 수 있기 때문에, 영상통화자의 다양한 요구를 충족시키면서 영상통화자의 흥미를 유발하여 영상통화의 사용을 확대할 수 있고, 또한 사용자는 영상통화 단말기를 통하여 상대방의 적어도 하나의 제스처에 대응하는 아바타의 모습이나 행동 방식을 직접 설정할 수 있기 때문에, 사용자의 개성을 추구하면서 보다 흥미롭게 영상통화를 사용할 수 있는 환경을 제공할 수 있다.The present invention relates to a system and method for transmitting emotions during a video call through gesture recognition, wherein the video call terminal analyzes the image data received from the counterpart terminal during the video call and outputs an avatar corresponding to the detected gesture of the counterpart. Since the user can directly set and use the avatar to be used in the video call, the user can expand the use of the video call by inducing the interest of the video call while satisfying various needs of the video caller. Since the user can directly set the appearance or behavior of the avatar corresponding to at least one gesture of the other party through the video call terminal, the user can provide an environment in which the video call can be used more interestingly while pursuing the user's personality.

도 1은 본 발명의 제1 실시예에 따른 영상통화 중 감정 전달 시스템을 보여주는 블록도이다.1 is a block diagram illustrating an emotion transmission system during a video call according to a first embodiment of the present invention.

도 2는 도 1의 영상통화 단말기의 구성을 보여주는 블록도이다.2 is a block diagram illustrating a configuration of a video call terminal of FIG. 1.

도 3은 본 발명의 제1 실시예에 따른 영상통화 중 감정 전달 방법의 일 예에 따른 흐름도이다.3 is a flowchart illustrating an example of a method for transmitting emotion during a video call according to the first embodiment of the present invention.

도 4는 본 발명의 제1 실시예에 따른 영상통화 중 감정 전달 방법의 다른 예에 따른 흐름도이다.4 is a flowchart illustrating another example of a method for transmitting emotion during a video call according to the first embodiment of the present invention.

도 5는 본 발명의 제2 실시예에 따른 영상통화 중 감정 전달 시스템을 보여주는 블록도이다.5 is a block diagram illustrating an emotion transmission system during a video call according to a second embodiment of the present invention.

도 6은 본 발명의 제2 실시예에 따른 영상통화 중 감정 전달 방법의 일 예에 따른 흐름도이다.6 is a flowchart illustrating an example of a method for transmitting emotion during a video call according to a second embodiment of the present invention.

도 7은 본 발명의 제2 실시예에 따른 영상통화 중 감정 전달 방법의 다른 예에 따른 흐름도이다.7 is a flowchart illustrating another example of a method for transmitting emotion during a video call according to the second embodiment of the present invention.

* 도면의 주요 부분에 대한 설명 *Description of the Related Art [0002]

10 : 통신망10: communication network

20 : 발신 단말기20: calling terminal

30 : 아바타 제공서버30: avatar providing server

40 : 착신 단말기40: called terminal

100, 200 : 감정 전달 시스템100, 200: emotional delivery system

Claims (23)

영상통화 중인 발신 단말기 또는 착신 단말기로부터 아바타 제공 요청 신호를 수신하면, 아바타 제공서버와 상기 발신 단말기 간의 세션 및 상기 아바타 제공서버와 상기 착신 단말기 간의 세션을 설정하는 통신망;A communication network configured to establish a session between the avatar providing server and the calling terminal and a session between the avatar providing server and the called terminal when receiving an avatar providing request signal from a calling terminal or a called terminal in a video call; 상기 아바타 제공 요청 신호를 발신한 단말기의 상대방 단말기로부터 촬영된 상대방의 영상데이터를 수신하고, 상기 수신한 영상데이터를 분석하여 상기 상대방이 취하는 제스처를 감지하고, 상기 감지한 제스처에 대응하는 아바타를 데이터베이스부에서 추출하고, 상기 추출한 아바타를 포함하는 영상통화 트래픽을 상기 아바타 제공 요청 신호를 발신한 단말기로 전송하는 상기 아바타 제공서버;Receives the image data of the counterpart photographed from the counterpart terminal of the terminal that has sent the avatar providing request signal, analyzes the received video data to detect a gesture taken by the counterpart, and stores an avatar corresponding to the detected gesture. The avatar providing server extracting from the unit and transmitting the video call traffic including the extracted avatar to a terminal that has sent the avatar providing request signal; 를 포함하는 것을 특징으로 제스처 인식을 통한 영상통화 중 감정 전달 시스템.Emotion delivery system during a video call through gesture recognition, comprising a. 제1항에 있어서, 상기 통신망은,The method of claim 1, wherein the communication network, 상기 발신 단말기로부터 발신된 영상 호를 수신하면 상기 발신 단말기와 착신 단말기 간의 영상 호 경로를 설정하고, 상기 아바타 제공 요청 신호가 수신되면 상기 영상 호 경로를 해제하고 상기 아바타 제공서버와 발신 단말기 간의 세션 및 상기 아바타 제공서버와 상기 착신 단말기 간의 세션을 설정하는 것을 특징으로 하는 제스처 인식을 통한 영상통화 중 감정 전달 시스템.Receiving a video call originated from the originating terminal, sets a video call path between the originating terminal and the called terminal, and when the avatar providing request signal is received, releases the video call route and sessions between the avatar providing server and the originating terminal; Emotion delivery system during a video call through the gesture recognition, characterized in that for setting the session between the avatar providing server and the called terminal. 통신망, 발신 단말기 및 착신 단말기와 통신을 수행하는 송수신부;A transceiver for performing communication with a communication network, a calling terminal and a called terminal; 상기 발신 단말기 또는 착신 단말기 사용자의 제스처에 대응하는 아바타를 저장하는 데이터베이스부;A database unit for storing an avatar corresponding to a gesture of the calling terminal or the called terminal user; 영상통화 중인 상기 발신 단말기 또는 착신 단말기의 아바타 제공 요청 신호에 따라 상기 통신망에 의해 상기 발신 단말기 및 착신 단말기와 각각 세션을 설정하고, 상기 아바타 제공 요청 신호를 발신한 단말기의 상대방 단말기로부터 촬영된 상대방의 영상데이터를 수신하고, 상기 수신한 영상데이터를 분석하여 상기 상대방이 취하는 제스처를 감지하고, 상기 감지한 제스처에 대응하는 아바타를 데이터베이스부에서 추출하고, 상기 추출한 아바타를 포함하는 영상통화 트래픽을 상기 아바타 제공 요청 신호를 발신한 단말기로 전송하는 제어부;In response to the avatar providing request signal of the calling terminal or the called terminal during a video call, the communication network establishes a session with the calling terminal and the called terminal, and the other party photographed from the counterpart terminal of the terminal sending the avatar providing request signal. Receives image data, analyzes the received image data, detects a gesture taken by the counterpart, extracts an avatar corresponding to the detected gesture from a database unit, and extracts video call traffic including the extracted avatar from the avatar. A control unit which transmits a provision request signal to a terminal that has sent the provision request signal; 를 포함하는 것을 특징으로 하는 제스처 인식을 통한 영상통화 중 감정 전달 시스템의 아바타 제공서버.Avatar providing server of the emotion transmission system during a video call through gesture recognition, comprising a. 통신망을 매개로 상대방 단말기와 영상통화를 수행하는 통신부;A communication unit for performing a video call with a counterpart terminal through a communication network; 영상통화시 사용자를 촬영하는 카메라부;A camera unit for photographing a user during a video call; 상기 통신부를 통하여 수신한 상대방의 영상 및 음성데이터를 출력하는 출력부;An output unit for outputting video and audio data of the other party received through the communication unit; 상대방의 제스처에 대응하는 아바타를 저장하는 저장부;A storage unit which stores an avatar corresponding to the gesture of the counterpart; 상기 통신부를 통해 상기 상대방 단말기로부터 수신한 영상데이터를 분석하여 상기 상대방이 취하는 제스처를 감지하고, 상기 감지한 제스처에 대응하는 아바 타를 상기 저장부에서 추출하고, 상기 추출한 아바타를 상기 출력부로 출력하는 단말제어부;Analyzing image data received from the counterpart terminal through the communication unit to detect a gesture taken by the counterpart, extracting an avatar corresponding to the detected gesture from the storage unit, and outputting the extracted avatar to the output unit. Terminal control unit; 를 포함하는 것을 특징으로 하는 제스처 인식을 통한 영상통화 중 감정 전달 시스템의 영상통화 단말기.The video call terminal of the emotion delivery system of the video call through gesture recognition comprising a. 아바타 제공서버가 영상통화 중인 발신 단말기 또는 착신 단말기의 아바타 제공 요청 신호에 따라 통신망에 의해 상기 발신 단말기 및 착신 단말기와 각각 세션을 설정하는 세션 설정 단계;A session setting step of establishing, by an avatar providing server, a session with the calling terminal and the called terminal by a communication network according to an avatar providing request signal of a calling terminal or a called terminal in a video call; 상기 아바타 제공서버가 상기 아바타 제공 요청 신호를 발신한 단말기의 상대방 단말기로부터 촬영된 상대방의 영상데이터를 수신하는 수신 단계;A reception step of receiving, by the avatar providing server, image data of the other party photographed from the other party's terminal of the terminal which has sent the avatar providing request signal; 상기 아바타 제공서버가 상기 수신한 영상데이터를 분석하여 상기 상대방이 취하는 제스처를 감지하고, 상기 감지한 제스처에 대응하는 아바타를 데이터베이스부에서 추출하는 추출 단계;An extraction step of the avatar providing server analyzing the received image data to detect a gesture taken by the counterpart and extracting an avatar corresponding to the detected gesture from a database unit; 상기 아바타 제공서버가 상기 추출한 아바타를 포함하는 영상통화 트래픽을 상기 아바타 제공 요청 신호를 발신한 단말기로 전송하는 전송 단계;Transmitting, by the avatar providing server, video call traffic including the extracted avatar to a terminal that has sent the avatar providing request signal; 를 포함하는 것을 특징으로 하는 제스처 인식을 통한 영상통화 중 감정 전달 방법.Emotion transfer method during a video call through gesture recognition, comprising a. 제5항에 있어서, 상기 아바타 제공서버는,The method of claim 5, wherein the avatar providing server, 상기 데이터베이스부에 상기 상대방이 취한 적어도 하나의 특정 제스처에 대 응하는 아바타를 저장하고 있는 것을 특징으로 하는 제스처 인식을 통한 영상통화 중 감정 전달 방법.And an avatar corresponding to at least one specific gesture taken by the counterpart in the database unit. 제5항에 있어서, 상기 추출 단계는,The method of claim 5, wherein the extracting step, 상기 아바타 제공서버가 상기 수신한 영상데이터를 분석하여 상기 상대방이 특정 제스처를 취하는 지를 모니터링하는 모니터링 단계;A monitoring step of the avatar providing server analyzing the received image data to monitor whether the counterpart makes a specific gesture; 상기 아바타 제공서버가 상기 모니터링 중 상기 상대방이 취한 특정 제스처를 감지하면, 상기 감지한 특정 제스처에 대응하는 아바타를 상기 데이터베이스부에서 추출하는 단계;If the avatar providing server detects a specific gesture taken by the counterpart during the monitoring, extracting an avatar corresponding to the detected specific gesture from the database unit; 를 포함하는 것을 특징으로 하는 제스처 인식을 통한 영상통화 중 감정 전달 방법. Emotion transfer method during a video call through gesture recognition, comprising a. 제7항에 있어서, 상기 모니터링 단계는,The method of claim 7, wherein the monitoring step, 상기 아바타 제공서버가 상기 수신한 영상데이터에서 상기 상대방 영상을 추출하는 단계;Extracting, by the avatar providing server, the counterpart image from the received image data; 상기 아바타 제공서버가 상기 추출된 상대방 영상에서 관심영역을 추출 및 추적하여 상기 상대방이 취한 제스처를 인식하는 단계;Recognizing, by the avatar providing server, a gesture taken by the counterpart by extracting and tracking a region of interest from the extracted counterpart image; 상기 아바타 제공서버가 상기 인식한 제스처가 상기 저장된 특정 제스처에 포함되는 지를 판단하는 단계;Determining, by the avatar providing server, whether the recognized gesture is included in the stored specific gesture; 를 포함하는 것을 특징으로 하는 제스처 인식을 통한 영상통화 중 감정 전달 방법.Emotion transfer method during a video call through gesture recognition, comprising a. 제8항에 있어서, 상기 아바타 제공서버는,The method of claim 8, wherein the avatar providing server, 상기 데이터베이스부에 상기 발신 단말기 또는 착신 단말기 사용자가 설정한 아바타를 저장하고 있는 것을 특징으로 하는 제스처 인식을 통한 영상통화 중 감정 전달 방법.Emotion transfer method during a video call through gesture recognition, characterized in that for storing the avatar set by the calling terminal or the called terminal user in the database unit. 제5항에 있어서, 상기 추출 단계는,The method of claim 5, wherein the extracting step, 상기 아바타 제공서버가 상기 수신한 영상데이터를 분석하여 상기 상대방이 취하는 제스처에 따른 관심영역을 추출하여 추적하는 추적 단계;A tracking step of the avatar providing server analyzing the received image data and extracting and tracking a region of interest according to a gesture of the counterpart; 상기 아바타 제공서버가 상기 아바타 제공 요청 신호를 발신한 단말기 사용자가 설정한 아바타를 데이터베이스부에서 호출하고, 상기 호출한 아바타를 상기 추적한 특정영역에 대응되게 변형하는 변형 단계;를 포함하며, And modifying, by the avatar providing server, an avatar set by a terminal user who has transmitted the avatar providing request signal in a database unit, and deforming the called avatar to correspond to the tracked specific area. 상기 전송 단계에서 상기 아바타 제공서버가 상기 변형된 아바타를 포함하는 영상통화 트래픽을 상기 아바타 제공 요청 신호를 발신한 단말기로 전송하는 것을 특징으로 하는 제스처 인식을 통한 영상통화 중 감정 전달 방법.In the transmitting step, the avatar providing server transmits the video call traffic including the modified avatar to the terminal that sent the avatar providing request signal, the emotion transmission method during the video call through gesture recognition. 제10항에 있어서, 상기 추적 단계는,The method of claim 10, wherein the tracking step, 상기 아바타 제공서버가 상기 수신한 영상데이터에서 상기 상대방 영상을 추출하는 단계;Extracting, by the avatar providing server, the counterpart image from the received image data; 상기 아바타 제공서버가 상기 추출된 상대방 영상에서 관심영역을 추출하는 단계;Extracting, by the avatar providing server, a region of interest from the extracted counterpart image; 상기 아바타 제공서버가 상기 추출한 관심영역의 변화를 추적하는 단계;Tracking, by the avatar providing server, the extracted change of the ROI; 를 포함하는 것을 특징으로 하는 제스처 인식을 통한 영상통화 중 감정 전달 방법.Emotion transfer method during a video call through gesture recognition, comprising a. 제5항에 있어서, 상기 세션 설정 단계 이전에 수행되는,The method of claim 5, wherein the step is performed before the session establishment step, 상기 아바타 제공서버가 아바타 설정 모드에서 자신 또는 상대방이 좋아하거나 관심 있는 분야의 아바타를 선택하여 설정하는 단계;Selecting and setting, by the avatar providing server, an avatar of a field that the user or the other party likes or is interested in in the avatar setting mode; 를 더 포함하는 것을 특징으로 하는 제스처 인식을 통한 영상통화 중 감정 전달 방법.Emotional transmission method during a video call through gesture recognition further comprising a. 통신망을 매개로 상대방 단말기와 영상통화 중인 사용자 단말기가 상기 상대방 단말기로부터 영상데이터를 수신하는 수신 단계;Receiving a video data from the counterpart terminal by a user terminal in a video call with the counterpart terminal via a communication network; 상기 사용자 단말기가 상기 수신한 영상데이터를 분석하여 상기 상대방이 취하는 제스처를 감지하고, 상기 감지한 제스처에 대응하는 아바타를 저장부에서 추출하는 추출 단계;An extraction step of detecting, by the user terminal, the gesture taken by the counterpart by analyzing the received image data, and extracting an avatar corresponding to the detected gesture from the storage unit; 상기 사용자 단말기가 상기 추출한 아바타를 출력부를 통하여 출력하는 출력 단계;An output step of the user terminal outputting the extracted avatar through an output unit; 를 포함하는 것을 특징으로 하는 제스처 인식을 통한 영상통화 중 감정 전달 방법.Emotion transfer method during a video call through gesture recognition, comprising a. 제13항에 있어서, 상기 수신 단계 이전에 수행되는,The method according to claim 13, which is performed before the receiving step, 상기 사용자 단말기가 상기 상대방이 취한 적어도 하나의 특정 제스처에 대응하는 아바타를 설정하여 상기 저장부에 저장하는 저장 단계;A storage step of setting, by the user terminal, an avatar corresponding to at least one specific gesture taken by the counterpart and storing the avatar in the storage unit; 를 더 포함하는 것을 특징으로 하는 제스처 인식을 통한 영상통화 중 감정 전달 방법.Emotional transmission method during a video call through gesture recognition further comprising a. 제14항에 있어서, 상기 저장 단계에서,The method of claim 14, wherein in the storing step: 상기 설정된 아바타는 상기 상대방이 취한 특정 제스처에 대응하는 행동 방식으로 동작하는 것을 특징으로 하는 제스처 인식을 통한 영상통화 중 감정 전달 방법.And the set avatar operates in a behavioral manner corresponding to a specific gesture taken by the counterpart. 제13항에 있어서, 상기 추출 단계는,The method of claim 13, wherein the extracting step, 상기 사용자 단말기가 상기 수신한 영상데이터에서 상기 상대방이 특정 제스처를 취하는 지를 모니터링하는 모니터링 단계;A monitoring step of monitoring, by the user terminal, whether the counterpart makes a specific gesture in the received image data; 상기 모니터링 중 상기 상대방이 취한 특정 제스처를 감지하면, 상기 사용자 단말기가 상기 감지한 특정 제스처에 대응하는 아바타를 상기 저장부에서 추출하는 단계;Extracting, from the storage unit, an avatar corresponding to the detected specific gesture by the user terminal when the specific gesture of the counterpart is detected during the monitoring; 를 포함하는 것을 특징으로 하는 제스처 인식을 통한 영상통화 중 감정 전달 방법.Emotion transfer method during a video call through gesture recognition, comprising a. 제16항에 있어서, 상기 모니터링 단계는,The method of claim 16, wherein the monitoring step, 상기 사용자 단말기는 상기 수신한 영상데이터에서 상기 상대방 영상을 추출하는 단계;Extracting, by the user terminal, the counterpart image from the received image data; 상기 사용자 단말기는 상기 추출된 상대방 영상에서 관심영역을 추출 및 추적하여 상기 상대방이 취한 제스처를 인식하는 단계;Recognizing, by the user terminal, a gesture taken by the counterpart by extracting and tracking a region of interest from the extracted counterpart image; 상기 사용자 단말기는 상기 인식한 제스처가 상기 저장된 특정 제스처에 포함되는 지를 판단하는 단계;Determining, by the user terminal, whether the recognized gesture is included in the stored specific gesture; 를 포함하는 것을 특징으로 하는 제스처 인식을 통한 영상통화 중 감정 전달 방법.Emotion transfer method during a video call through gesture recognition, comprising a. 제13항에 있어서, 상기 추출 단계는,The method of claim 13, wherein the extracting step, 상기 사용자 단말기가 상기 수신한 영상데이터에서 상기 상대방이 취하는 제스처에 따른 관심영역을 추출하여 추적하는 추적 단계;A tracking step of the user terminal extracting and tracking a region of interest according to a gesture of the counterpart from the received image data; 상기 사용자 단말기가 상기 저장부에서 상대방이 설정한 아바타를 호출하고, 상기 호출한 아바타를 상기 추적한 특정영역에 대응되게 변형하는 변형 단계;를 포함하며,And modifying, by the user terminal, an avatar set by the counterpart in the storage unit, and modifying the called avatar to correspond to the tracked specific area. 상기 출력 단계에서 상기 사용자 단말기가 상기 변형된 아바타를 출력하는 것을 특징으로 하는 제스처 인식을 통한 영상통화 중 감정 전달 방법.The emotion transmission method of the video call through the gesture recognition, characterized in that for outputting the modified avatar the user terminal in the output step. 제18항에 있어서, 상기 추적 단계는,The method of claim 18, wherein the tracking step, 상기 사용자 단말기는 상기 수신한 영상데이터에서 상기 상대방 영상을 추출하는 단계;Extracting, by the user terminal, the counterpart image from the received image data; 상기 사용자 단말기는 상기 추출된 상대방 영상에서 관심영역을 추출하는 단계;Extracting, by the user terminal, a region of interest from the extracted counterpart image; 상기 사용자 단말기는 상기 추출한 관심영역의 변화를 추적하는 단계;Tracking, by the user terminal, a change of the extracted ROI; 를 포함하는 것을 특징으로 하는 제스처 인식을 통한 영상통화 중 감정 전달 방법.Emotion transfer method during a video call through gesture recognition, comprising a. 제13항에 있어서, 상기 수신 단계 이전에 수행되는,The method according to claim 13, which is performed before the receiving step, 상기 사용자 단말기가 아바타 설정 모드에서 자신 또는 상대방이 좋아하거나 관심 있는 분야의 아바타를 선택하여 설정하는 단계;Selecting and setting, by the user terminal, an avatar of a field that the user or the other party likes or is interested in in an avatar setting mode; 를 더 포함하는 것을 특징으로 하는 제스처 인식을 통한 영상통화 중 감정 전달 방법.Emotional transmission method during a video call through gesture recognition further comprising a. 제5항 내지 제20항 중 어느 한 항에 있어서,The method according to any one of claims 5 to 20, 상기 아바타는 상대방 감정상태를 대신하여 표현하는 그래픽 컨텐츠로서, 애니메이션 캐릭터, 동영상, 정지영상, UCC(User Created Contents), 이모티콘, 플래시(flash), 영상과 진동이 조합된 햅틱 컨텐츠 중에 하나를 포함하는 것을 특징으 로 하는 제스처 인식을 통한 영상통화 중 감정 전달 방법.The avatar is a graphic content that represents the emotion state of the other party, and includes one of an animated character, a video, a still image, a user created content (UCC), an emoticon, a flash, and haptic content in which a video and vibration are combined. Emotion transfer method during a video call through gesture recognition, characterized in that. 제8항 내지 제11항, 제17항 내지 제19항 중 어느 한 항에 있어서,The method according to any one of claims 8 to 11, 17 to 19, 상기 관심영역은 상기 추출된 사용자의 영상에 포함된 상기 사용자의 얼굴, 양 손, 양 팔, 양 발 중에 적어도 하나를 포함하는 것을 특징으로 하는 제스처 인식을 통한 영상통화 중 감정 전달 방법.The region of interest includes at least one of the user's face, both hands, both arms, and both feet included in the extracted user's image. 제6항 내지 11항, 제14항 내지 17항 중 어느 한 항에 있어서,The method according to any one of claims 6 to 11 and 14 to 17, 상기 특정 제스처는 상기 상대방의 감정상태와 관련된 얼굴표정, 손동작, 머리동작, 팔동작, 다리동작 및 이들의 조합 중에 적어도 하나의 제스처를 포함하는 것을 특징으로 하는 영상통화 중 감정 전달 방법.The specific gesture may include at least one of a facial expression, a hand gesture, a head gesture, an arm gesture, a leg gesture, and a combination thereof related to the emotional state of the counterpart.
KR1020090083727A 2009-09-05 2009-09-05 System and method for delivering feeling during video call KR101205189B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090083727A KR101205189B1 (en) 2009-09-05 2009-09-05 System and method for delivering feeling during video call

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090083727A KR101205189B1 (en) 2009-09-05 2009-09-05 System and method for delivering feeling during video call

Publications (2)

Publication Number Publication Date
KR20110025721A true KR20110025721A (en) 2011-03-11
KR101205189B1 KR101205189B1 (en) 2012-11-27

Family

ID=43933143

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090083727A KR101205189B1 (en) 2009-09-05 2009-09-05 System and method for delivering feeling during video call

Country Status (1)

Country Link
KR (1) KR101205189B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013027893A1 (en) * 2011-08-22 2013-02-28 Kang Jun-Kyu Apparatus and method for emotional content services on telecommunication devices, apparatus and method for emotion recognition therefor, and apparatus and method for generating and matching the emotional content using same
WO2014022022A1 (en) * 2012-08-01 2014-02-06 Google Inc. Using an avatar in a videoconferencing system
KR20140057036A (en) * 2012-11-02 2014-05-12 삼성전자주식회사 Method for providing information and electronic apparatus thereof
KR102114457B1 (en) * 2019-10-21 2020-05-22 (주)부즈 Method and apparatus for processing real-time character streaming contents
US11765320B2 (en) 2021-08-11 2023-09-19 Google Llc Avatar animation in virtual conferencing

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100439182B1 (en) * 2001-05-09 2004-07-05 한국식품개발연구원 Agastache rugosa extracts-containing composition and method for preparing same
KR100450327B1 (en) * 2002-08-07 2004-09-24 학교법인 경북과학대학 Producing method of Hyssop Beverage

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013027893A1 (en) * 2011-08-22 2013-02-28 Kang Jun-Kyu Apparatus and method for emotional content services on telecommunication devices, apparatus and method for emotion recognition therefor, and apparatus and method for generating and matching the emotional content using same
WO2014022022A1 (en) * 2012-08-01 2014-02-06 Google Inc. Using an avatar in a videoconferencing system
US9191619B2 (en) 2012-08-01 2015-11-17 Google Inc. Using an avatar in a videoconferencing system
US9723265B2 (en) 2012-08-01 2017-08-01 Google Inc. Using an avatar in a videoconferencing system
US10225519B2 (en) 2012-08-01 2019-03-05 Google Llc Using an avatar in a videoconferencing system
KR20200087284A (en) * 2012-08-01 2020-07-20 구글 엘엘씨 Using an avatar in a videoconferencing system
KR20140057036A (en) * 2012-11-02 2014-05-12 삼성전자주식회사 Method for providing information and electronic apparatus thereof
KR102114457B1 (en) * 2019-10-21 2020-05-22 (주)부즈 Method and apparatus for processing real-time character streaming contents
US11765320B2 (en) 2021-08-11 2023-09-19 Google Llc Avatar animation in virtual conferencing

Also Published As

Publication number Publication date
KR101205189B1 (en) 2012-11-27

Similar Documents

Publication Publication Date Title
KR101205189B1 (en) System and method for delivering feeling during video call
US11503377B2 (en) Method and electronic device for processing data
US20220284735A1 (en) Identifying and addressing offensive actions in visual communication sessions
CN107835464B (en) Video call window picture processing method, terminal and computer readable storage medium
WO2018107918A1 (en) Method for interaction between avatars, terminals, and system
CN108259781B (en) Video synthesis method, terminal and computer-readable storage medium
CN100512420C (en) Method and apparatus for composing images during video communications
KR101170338B1 (en) Method For Video Call And System thereof
CN107231470B (en) Image processing method, mobile terminal and computer readable storage medium
US10142588B2 (en) Information-processing device, communication system, storage medium, and communication method
CN107896303A (en) A kind of image-pickup method, system and equipment and computer-readable recording medium
KR20120018479A (en) Server and method for providing avatar using facial expression and gesture recognition
CN107786427B (en) Information interaction method, terminal and computer readable storage medium
CN108600647A (en) Shooting preview method, mobile terminal and storage medium
KR20210060196A (en) Server, method and user device for providing avatar message service
KR20110020131A (en) System and method for delivering feeling during video call
CN109150690B (en) Interactive data processing method and device, computer equipment and storage medium
KR20110041065A (en) System, server, terminal and method for delivering haptic contents during video call
KR101274471B1 (en) System and method for emotion transmitting during video communication
KR101179465B1 (en) Video call system and method for delivering feeling of far end talker
CN109039851B (en) Interactive data processing method and device, computer equipment and storage medium
KR101337229B1 (en) System, Haptic Server and Method for Providing of Emotional State of User In Video Telephony
KR102058190B1 (en) Apparatus for providing character service in character service system
CN110113826B (en) D2D device-to-device connection method and terminal device
KR101189052B1 (en) System and method for delivering feeling during video call

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20151030

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20161102

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170711

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20181106

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20191015

Year of fee payment: 8