KR20110025721A - System and method for delivering feeling during video call - Google Patents
System and method for delivering feeling during video call Download PDFInfo
- Publication number
- KR20110025721A KR20110025721A KR1020090083727A KR20090083727A KR20110025721A KR 20110025721 A KR20110025721 A KR 20110025721A KR 1020090083727 A KR1020090083727 A KR 1020090083727A KR 20090083727 A KR20090083727 A KR 20090083727A KR 20110025721 A KR20110025721 A KR 20110025721A
- Authority
- KR
- South Korea
- Prior art keywords
- avatar
- terminal
- gesture
- video call
- counterpart
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/20—Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
- H04N7/147—Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W88/00—Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
- H04W88/18—Service support devices; Network management devices
- H04W88/184—Messaging devices, e.g. message centre
Abstract
Description
본 발명은 영상통화기술에 관한 것으로, 더욱 상세하게는 영상통화 중 상대방 단말기로부터 수신한 영상데이터를 분석하여 상대방이 특정 제스처를 취하게 되면 사용자 단말기로 특정 제스처에 대응하는 아바타를 출력하여 상대방의 감정상태를 사용자에게 전달하는 영상통화 중 감정 전달 시스템 및 방법에 관한 것이다.The present invention relates to a video call technology, and more particularly, to analyze an image data received from a counterpart terminal during a video call, and when the counterpart takes a specific gesture, an avatar corresponding to the specific gesture is output to the user terminal to express the emotion of the counterpart. The present invention relates to an emotional delivery system and method for transmitting a video call to a user.
음성통화 위주의 통화패턴에서 고속정보통신이 현실화되면서 통신단말기를 통한 영상통화기술이 주목을 받고 있다. 또한 영상통화가 가능한 통신단말기(이하, '화상통화 단말기'라 함)의 보급이 확대되면서 영상통화의 빈도수가 날로 증가하고 있는 추세이다.As high-speed information communication is realized in voice call-oriented call patterns, video call technology through communication terminals is attracting attention. In addition, as the spread of communication terminals capable of video calls (hereinafter referred to as 'video call terminals') is increasing, the frequency of video calls is increasing day by day.
영상통화 단말기는 영상통화 중 상대방의 영상을 화면에 표시하고, 상대방의 음성을 출력하기 때문에, 단순히 음성만으로 통화를 하는 것에 비해서 영상통화자 간에 서로의 감정상태를 쉽게 교환할 수 있다.Since the video call terminal displays the video of the other party on the screen and outputs the voice of the other party, the video call terminal can easily exchange each other's emotional states with each other as compared with simply making a voice call.
하지만 여전히 사용자는 영상통화 중 상대방의 감정상태를 표정이나 목소리만으로 전달받으므로, 상대방의 다양한 감정상태를 정확히 영상통화 단말기를 통하 여 사용자에게 전달하는 데는 한계가 있다. 그리고 현재의 영상통화는 단순히 상대방의 영상을 보면서 통화를 수행하는 데 그치고 있기 때문에, 영상통화자의 다양한 요구를 충족시키면서 영상통화자의 흥미를 유발하여 영상통화의 사용을 확대하는 데도 한계가 있다.However, since the user is still receiving the emotional state of the other party only through the facial expression or voice during the video call, there is a limit in accurately transmitting the various emotional states of the other party to the user through the video call terminal. In addition, since the current video call is merely to perform the call while watching the video of the other party, there is a limit to expanding the use of the video call by inducing interest of the video call while satisfying various needs of the video caller.
따라서 본 발명의 목적은 영상통화를 통하여 상대방의 다양한 감정상태를 정확히 사용자에게 전달할 수 있는 영상통화 중 감정 전달 시스템 및 방법을 제공하는 데 있다.Accordingly, it is an object of the present invention to provide an emotion delivery system and method during a video call that can accurately convey various emotional states of the counterpart to a user through a video call.
본 발명의 다른 목적은 영상통화자의 흥미를 유발시켜 영상통화의 사용을 확대할 수 있는 영상통화 중 감정 전달 시스템 및 방법을 제공하는 데 있다.Another object of the present invention is to provide a system and method for transmitting emotions during a video call, which can induce interest of a video call to expand the use of the video call.
본 발명의 또 다른 목적은 영상통화 중 상대방 단말기로부터 수신한 영상데이터를 분석하여 상대방이 취한 제스처에 대응하는 아바타를 사용자 단말기의 화면에 출력하여 상대방의 감정 상태를 사용자에게 전달하는 영상통화 중 감정 전달 시스템 및 방법을 제공하는 데 있다.Another object of the present invention is to analyze the image data received from the counterpart terminal during the video call, and outputs the avatar corresponding to the gesture taken by the counterpart on the screen of the user terminal to transmit the emotion state of the counterpart to the user. A system and method are provided.
상기 목적을 달성하기 위하여, 본 발명은 통신망 및 아바타 제공서버를 포함하여 구성되는 제스처 인식을 통한 영상통화 중 감정 전달 시스템을 제공한다. 상기 통신망은 영상통화 중인 발신 단말기 또는 착신 단말기로부터 아바타 제공 요청 신호를 수신하면, 아바타 제공서버와 상기 발신 단말기 간의 세션 및 상기 아바타 제공서버와 상기 착신 단말기 간의 세션을 설정한다. 상기 아바타 제공서버는 상기 아바타 제공 요청 신호를 발신한 단말기의 상대방 단말기로부터 촬영된 상대방의 영상데이터를 수신하고, 상기 수신한 영상데이터를 분석하여 상기 상대방이 취하는 제스처를 감지하고, 상기 감지한 제스처에 대응하는 아바타를 데이터베이스부에서 추출하고, 상기 추출한 아바타를 포함하는 영상통화 트래픽을 상기 아바타 제공 요청 신호를 발신한 단말기로 전송한다.In order to achieve the above object, the present invention provides a system for transmitting emotions during a video call through gesture recognition including a communication network and an avatar providing server. When the communication network receives the avatar providing request signal from the calling terminal or the called terminal during the video call, the communication network establishes a session between the avatar providing server and the calling terminal and a session between the avatar providing server and the called terminal. The avatar providing server receives video data of the other party photographed from the other party's terminal of the terminal which has sent the avatar providing request signal, and analyzes the received video data to detect a gesture taken by the other party, and to the detected gesture. A corresponding avatar is extracted from a database unit, and video call traffic including the extracted avatar is transmitted to a terminal that has sent the avatar providing request signal.
본 발명에 따른 감정 전달 시스템에 있어서, 상기 통신망은 상기 발신 단말기로부터 발신된 영상 호를 수신하면 상기 발신 단말기와 착신 단말기 간의 영상 호 경로를 설정하고, 상기 아바타 제공 요청 신호가 수신되면 상기 영상 호 경로를 해제하고 상기 아바타 제공서버와 발신 단말기 간의 세션 및 상기 아바타 제공서버와 상기 착신 단말기 간의 세션을 설정한다.In the emotion delivery system according to the present invention, the communication network sets a video call path between the calling terminal and the called terminal upon receiving a video call sent from the calling terminal, and when the avatar providing request signal is received, the video call path. Releases and sets a session between the avatar providing server and the calling terminal and a session between the avatar providing server and the called terminal.
본 발명은 또한, 송수신부, 데이터베이스부 및 제어부를 포함하여 구성되는 제스처 인식을 통한 영상통화 중 감정 전달 시스템의 아바타 제공서버를 제공한다. 상기 송수신부는 통신망, 발신 단말기 및 착신 단말기와 통신을 수행한다. 상기 데이터베이스부는 상기 발신 단말기 또는 착신 단말기 사용자의 제스처에 대응하는 아바타를 저장한다. 그리고 상기 제어부는 영상통화 중인 상기 발신 단말기 또는 착신 단말기의 아바타 제공 요청 신호에 따라 상기 통신망에 의해 상기 발신 단말기 및 착신 단말기와 각각 세션을 설정하고, 상기 아바타 제공 요청 신호를 발신한 단말기의 상대방 단말기로부터 촬영된 상대방의 영상데이터를 수신하고, 상기 수신한 영상데이터를 분석하여 상기 상대방이 취하는 제스처를 감지하고, 상기 감지한 제스처에 대응하는 아바타를 데이터베이스부에서 추출하고, 상기 추출한 아바타를 포함하는 영상통화 트래픽을 상기 아바타 제공 요청 신호를 발신한 단말기로 전송한다.The present invention also provides an avatar providing server of an emotion delivery system during a video call through gesture recognition including a transceiver, a database, and a controller. The transceiver performs communication with a communication network, a calling terminal and a called terminal. The database unit stores an avatar corresponding to a gesture of the calling terminal or the called terminal user. The controller sets a session with the calling terminal and the called terminal by the communication network according to the avatar providing request signal of the calling terminal or the called terminal during the video call, and from the counterpart terminal of the terminal sending the avatar providing request signal. Receives image data of the other party photographed, analyzes the received image data, detects a gesture taken by the other party, extracts an avatar corresponding to the detected gesture from a database unit, and includes a video call including the extracted avatar. The traffic is transmitted to the terminal that has sent the avatar providing request signal.
본 발명은 또한, 통신부, 카메라부, 출력부, 저장부 및 단말제어부를 포함하 여 구성되는 제스처 인식을 통한 영상통화 중 감정 전달 시스템의 영상통화 단말기를 제공한다. 상기 통신부는 통신망을 매개로 상대방 단말기와 영상통화를 수행한다. 상기 카메라부는 영상통화시 사용자를 촬영한다. 상기 출력부는 상기 통신부를 통하여 수신한 상대방의 영상 및 음성데이터를 출력한다. 상기 저장부는 상대방의 제스처에 대응하는 아바타를 저장한다. 그리고 상기 단말제어부는 상기 통신부를 통해 상기 상대방 단말기로부터 수신한 영상데이터를 분석하여 상기 상대방이 취하는 제스처를 감지하고, 상기 감지한 제스처에 대응하는 아바타를 상기 저장부에서 추출하고, 상기 추출한 아바타를 상기 출력부로 출력한다.The present invention also provides a video call terminal of an emotion delivery system during a video call through gesture recognition including a communication unit, a camera unit, an output unit, a storage unit, and a terminal controller. The communication unit performs a video call with a counterpart terminal through a communication network. The camera unit photographs a user during a video call. The output unit outputs the video and audio data of the other party received through the communication unit. The storage unit stores an avatar corresponding to the gesture of the counterpart. The terminal controller analyzes the image data received from the counterpart terminal through the communication unit to detect a gesture taken by the counterpart, extracts an avatar corresponding to the detected gesture from the storage unit, and extracts the extracted avatar. Output to the output.
본 발명은 또한, 아바타 제공서버가 영상통화 중인 발신 단말기 또는 착신 단말기의 아바타 제공 요청 신호에 따라 통신망에 의해 상기 발신 단말기 및 착신 단말기와 각각 세션을 설정하는 세션 설정 단계, 상기 아바타 제공서버가 상기 아바타 제공 요청 신호를 발신한 단말기의 상대방 단말기로부터 촬영된 상대방의 영상데이터를 수신하는 수신 단계, 상기 아바타 제공서버가 상기 수신한 영상데이터를 분석하여 상기 상대방이 취하는 제스처를 감지하고, 상기 감지한 제스처에 대응하는 아바타를 데이터베이스부에서 추출하는 추출 단계, 상기 아바타 제공서버가 상기 추출한 아바타를 포함하는 영상통화 트래픽을 상기 아바타 제공 요청 신호를 발신한 단말기로 전송하는 전송 단계를 포함하는 제스처 인식을 통한 영상통화 중 감정 전달 방법을 제공한다.The present invention also provides a session setting step of establishing a session with the calling terminal and the called terminal by the communication network according to the avatar providing request signal of the calling terminal or the called terminal in which the avatar providing server is in a video call. Receiving step of receiving the image data of the other party photographed from the other party terminal of the terminal that has provided the provision request signal, the avatar providing server analyzes the received video data to detect the gesture taken by the other party, and to the detected gesture Extracting a corresponding avatar from the database unit; transmitting the video call traffic including the extracted avatar to the terminal that sent the avatar providing request signal by the avatar providing server; How to convey emotions Ball.
그리고 본 발명은 또한, 통신망을 매개로 상대방 단말기와 영상통화 중인 사용자 단말기가 상기 상대방 단말기로부터 영상데이터를 수신하는 수신 단계, 상기 사용자 단말기가 상기 수신한 영상데이터를 분석하여 상기 상대방이 취하는 제스처를 감지하고, 상기 감지한 제스처에 대응하는 아바타를 저장부에서 추출하는 추출 단계, 상기 사용자 단말기가 상기 추출한 아바타를 출력부를 통하여 출력하는 출력 단계를 포함하는 제스처 인식을 통한 영상통화 중 감정 전달 방법을 제공한다.The present invention also provides a receiving step of receiving a video data from the counterpart terminal by a user terminal having a video call with the counterpart terminal via a communication network, and detecting the gesture of the counterpart by analyzing the received video data by the user terminal. And extracting an avatar corresponding to the detected gesture in a storage unit, and outputting the extracted avatar through an output unit by the user terminal. .
본 발명에 따르면, 사용자 단말기는 영상통화 중 상대방 단말기로부터 수신한 영상데이터를 분석하여 상대방이 취한 제스처에 대응하는 아바타를 수신한 영상데이터와 함께 출력하여 상대방의 감정상태를 사용자에게 전달할 수 있다. 즉 사용자 단말기는 상대방의 영상 및 음성뿐만 아니라 상대방이 취한 제스처에 따른 아바타를 출력하여 상대방의 감정상태를 사용자에게 효과적으로 전달할 수 있다.According to the present invention, the user terminal may analyze the image data received from the counterpart terminal during the video call, and output the avatar corresponding to the gesture taken by the counterpart along with the received image data to transmit the emotional state of the counterpart to the user. That is, the user terminal may effectively transmit the emotional state of the other party to the user by outputting the avatar according to the gesture of the other party as well as the other party's image and voice.
본 발명에 따른 영상통화 단말기는 상대방의 제스처에 대응하는 아바타를 출력하면서 영상통화를 수행할 수 있고, 사용자는 영상통화시 사용할 아바타를 자신이 직접 설정하여 사용할 수 있기 때문에, 영상통화자의 다양한 요구를 충족시키면서 영상통화자의 흥미를 유발하여 영상통화의 사용을 확대할 수 있다. 즉 사용자는 영상통화 단말기를 통하여 상대방의 적어도 하나의 제스처에 대응하는 아바타의 모습이나 행동 방식을 직접 설정할 수 있기 때문에, 사용자의 개성을 추구하면서 보다 흥미롭게 영상통화를 사용할 수 있는 환경을 제공할 수 있다.The video call terminal according to the present invention can perform a video call while outputting an avatar corresponding to the gesture of the other party, and the user can directly set and use an avatar to be used during the video call, so that various needs of the video caller can be met. While satisfying the video caller's interest, the use of the video call can be expanded. That is, since the user can directly set the appearance or behavior of the avatar corresponding to at least one gesture of the other party through the video call terminal, the user can provide an environment in which the video call can be used more interestingly while pursuing the user's personality. .
이하, 첨부 도면을 참조하여 본 발명의 실시예를 보다 상세하게 설명하고자 한다.Hereinafter, with reference to the accompanying drawings will be described in detail an embodiment of the present invention.
여기서 '아바타'는 단말기 사용자의 감정상태를 대신하여 표현하는 그래픽 컨텐츠로서, 애니메이션 캐릭터, 동영상, 정지영상, UCC(User Created Contents), 이모티콘, 플래시(flash), 영상과 진동이 조합된 햅틱 컨텐츠 등을 포함한다.Here, 'Avatar' is a graphic content that represents the emotional state of the terminal user, such as animated characters, video, still images, UCC (User Created Contents), emoticons, flash, haptic content combined with video and vibration, etc. It includes.
본 발명의 제1 실시예에 따른 영상통화 중 감정 전달 시스템(100)에 대해서 도 1 및 도 2를 참조하여 설명하면 다음과 같다. 여기서 도 1은 본 발명의 제1 실시예에 따른 영상통화 중 감정 전달 시스템(100)을 보여주는 블록도이다. 도 2는 도 1의 발신 단말기(20)의 구성을 보여주는 블록도이다.The
제1 실시예에 따른 영상통화 중 감정 전달 시스템(100; 이하 '감정 전달 시스템'이라 함)은 영상통화 중 상대방이 취한 특정 제스처에 대응하는 아바타를 출력하여 사용자에게 상대방의 감정상태를 전달한다. 즉 영상통화 중 상대방이 취하는 얼굴표정, 손동작, 머리동작, 팔동작, 다리동작 및 이들의 조합 등과 같은 특정 제스처는 상대방의 감정상태와 관련되기 때문에, 제1 실시예에 따른 감정 전달 시스템(100)은 영상통화 중 상대방이 특정 제스처를 취하면 특정 제스처에 대응하는 상대방의 감정상태를 표현할 수 있는 아바타를 사용자 단말기의 화면에 출력시킴으로써 사용자에게 상대방의 감정상태를 전달할 수 있다.The emotional delivery system 100 (hereinafter, referred to as an 'emotional delivery system') of a video call according to the first embodiment outputs an avatar corresponding to a specific gesture taken by the other party during a video call and transmits the emotional state of the other party to the user. That is, since certain gestures such as facial expressions, hand gestures, head gestures, arm gestures, leg gestures, and combinations thereof, which are taken by the other party during the video call are related to the emotional state of the other party, the
이와 같은 제1 실시예에 따른 감정 전달 시스템(100)은 통신망(10)을 매개로 연결되어 영상통화를 수행하는 발신 단말기(20) 및 착신 단말기(40)를 포함하여 구성된다.The
통신망(10)은 발신 단말기(20)와 착신 단말기(40) 사이의 데이터 전송 및 정보 교환을 위한 일련의 데이터 송수신 동작을 수행한다. 통신망(10)은 IP를 통하여 대용량 데이터의 송수신 서비스 및 끊김 없는 데이터 서비스를 제공하는 IP망으로, IP를 기반으로 서로 다른 망을 통합한 IP망 구조인 ALL-IP망일 수 있다. 또한 통신망(10)은 유선통신망, 이동통신망, WiBro(Wireless Broadband)망, HSDPA(High-Speed Downlink Packet Access)망, 위성통신망 중에 하나일 수 있다.The
이와 같은 통신망(10)은 호제어기(14)와 위치등록기(16)를 포함하여 구성될 수 있다.Such a
호제어기(14)는 호 및 세션처리에 관련된 기능을 담당하는 부분으로서, CSCF(Call State Control Function) 또는 MSC(Mobile Switching Center) 중에 하나일 수 있다. 특히 CSCF로 구현된 호제어기(14)는 인입호에 대한 게이트웨이로서의 기능, 호 제어 기능, SPD(Serving Profile Database) 기능, 주소 처리 기능 등을 수행한다. 특히 호제어기(14)는 발신 단말기(20) 또는 착신 단말기(40)의 요청에 따라 아바타를 포함한 영상통화 트래픽을 아바타 제공을 요청한 단말기로 전송한다.The
위치등록기(16)는 가입자의 마스터 데이터베이스로서, 가입자와 관련된 서비스의 마스터 목록을 유지하거나 가입자의 위치정보에 대한 관리를 수행함으로써 엑세스 수단을 추적하는 역할을 담당한다. 위치등록기(16)는 가입자가 가입한 부가서비스 가입정보를 저장한다. 위치등록기(16)로는 HLR(Home Location Register) 또는 All-IP망에서 가입자 정보 관리를 수행하는 HSS(Home Subscriber Server) 중에 하나일 수 있다.The
그리고 발신 단말기(20)와 착신 단말기(40)는 통신망(10)을 매개로 서로 간 에 영상통화를 수행한다. 발신 단말기(20) 또는 착신 단말기(40)로부터 아바타 제공 요청 신호가 입력되면, 아바타 제공 요청 신호를 발신한 단말기는 상대방이 취한 특정 제스처에 대응하는 아바타를 출력한다. 발신 단말기(20)와 착신 단말기(40)는 통신망(10)을 통하여 영상통화가 가능한 유무선 통신단말기로서, 이동통신단말기, 유선통신단말기, 인터넷전화기 등을 포함한다. 이때 사용자 단말기는 아바타를 포함한 상대방 영상을 표시한다. 따라서 사용자는 출력한 아바타를 통하여 상대방의 감정상태를 알 수 있다.In addition, the
제1 실시예에 따른 영상통화 중 감정 전달 시스템(100)의 발신 단말기(20) 및 착신 단말기(40)는 동일한 구성을 갖기 때문에, 도 2에 도시된 발신 단말기(20)의 구성을 중심으로 설명하면 다음과 같다. 발신 단말기(20)는 통신부(21), 입력부(22), 저장부(23), 카메라부(24), 출력부(25,26) 및 단말제어부(27)를 포함한다.Since the
통신부(21)는 통신망(10)을 매개로 착신 단말기(40)와의 영상통화를 위한 데이터를 송수신한다. 통신부(21)는 단말제어부(27)의 제어에 따라 상대방이 취한 제스처에 대응하는 아바타를 출력부(25,26)로 출력한다.The
입력부(22)는 발신 단말기(20)의 조작을 위한 복수의 키를 제공하며, 사용자의 키선택에 따른 선택 신호를 발생하여 단말제어부(27)에 전달한다. 사용자는 입력부(22)를 통해 영상통화 요청 신호와, 영상통화 중 아바타 제공 요청 신호를 입력할 수 있다. 입력부(22)로는 키패드, 터치패드와 같은 포인팅 장치, 터치스크린(touch screen) 등의 입력장치가 사용될 수 있다.The input unit 22 provides a plurality of keys for the operation of the calling
저장부(23)는 발신 단말기(20)의 동작 제어시 필요한 프로그램과, 그 프로그 램 수행 중에 발생되는 데이터를 저장하며, 하나 이상의 휘발성 메모리 소자와 비휘발성 메모리 소자로 이루어진다. 저장부(23)는 영상통화 중 아바타 제공 요청 신호에 따른 상대방의 제스처에 따른 아바타를 출력하기 위한 실행프로그램을 저장한다. 저장부(23)는 상대방의 특정 제스처에 대응하는 아바타 또는 사용자가 설정한 아바타를 저장한다. 이때 저장부(23)는 상대방의 단말정보에 매칭하여 아바타를 저장한다. 저장부(23)는 상대방의 특정 제스처에 따라 동작할 아바타를 매핑하여 저장할 수 있다.The
여기서 특정 제스처는 상대방이 취하는 제스처 중 상대방의 감정상태와 관련된 제스처로서, 상대방이 취하는 얼굴표정, 손동작, 머리동작, 팔동작, 다리동작 및 이들의 조합 중에 적어도 하나의 제스처를 포함한다. 예컨대 상대방이 고개를 좌우로 흔드는 제스처를 취하는 경우, 거부, 싫음 등과 같은 부정적인 감정상태를 표현하고자 할 때 취하는 제스처이다. 상대방이 고개를 상하로 흔드는 제스처를 취하는 경우, 승낙, 좋음 등과 같은 긍정적인 감정상태를 표현하고자 할 때 취하는 제스처이다. 상대방이 양 팔 또는 양 손을 사용하여 하트 모양의 제스처를 취하는 경우, 상대방이 사용자를 사용하는 감정상태를 표현하고자 할 때 취하는 제스처이다.Here, the specific gesture is a gesture related to the emotional state of the other of the gestures taken by the other party, and includes at least one of facial expressions, hand gestures, head gestures, arm gestures, leg gestures, and a combination thereof. For example, when the other person shakes his head from side to side, it is a gesture that is taken when expressing a negative emotional state such as rejection or dislike. When the other person shakes his head up and down, it is a gesture that he or she wants to express a positive emotional state such as acceptance or good. When the other party takes a heart-shaped gesture using both arms or both hands, the other party takes a gesture to express an emotional state using the user.
아바타는 상대방(객체)이 취한 특정 제스처에 대응하는 설정된 행동 방식으로 동작할 수 있다. 예컨대, 상대방이 고개를 좌우로 흔드는 제스처를 취하면, 아바타는 상대방의 부정적인 감정상태를 설정된 표정이나 행동을 통하여 표현한다. 또는 아바타는 상대방이 취한 특정 제스처에 대응하는 행동 방식으로 동작할 수 있 다. 예컨대, 상대방이 고개를 좌우로 흔들면, 아바타 또한 상대방의 제스처와 동일하게 고개를 좌우로 흔드는 동작을 수행한다.The avatar may operate in a set behavioral manner corresponding to a specific gesture taken by the counterpart (object). For example, when the other party makes a gesture of shaking his / her head from side to side, the avatar expresses the negative emotional state of the other party through a set facial expression or action. Alternatively, the avatar may operate in an action manner corresponding to a specific gesture taken by the counterpart. For example, when the other person shakes his head from side to side, the avatar also shakes his head from side to side in the same manner as the other person's gesture.
그리고 상대방의 특정 제스처에 아바타를 매핑하여 저장할 때, 특정 제스처에 따른 상대방의 감정상태를 그대로 표현하는 아바타를 설정할 수도 있고, 정반대로 표현하는 아바타를 설정할 수 있다.When the avatar is mapped to the specific gesture of the counterpart and stored, the avatar may be set to express the emotion state of the counterpart according to the specific gesture as it is, or the avatar may be set to be expressed in the opposite direction.
카메라부(24)는 통신부(21)를 통해 전송하기 위한 사용자(발신자)의 영상데이터를 획득한다. 즉 카메라부(24)는 입력부(22)를 통한 영상통화의 승낙에 따라 사용자의 영상을 촬영하여 영상데이터를 획득한다. 이때 카메라부(24)는 이미지 센서, 신호처리부 및 영상처리부를 포함하여 구성될 수 있다. 이미지 센서는 촬영한 영상의 광신호를 아날로그 신호로 변환한다. 신호처리부는 아날로그 신호를 디지털 신호로 변환한다. 그리고 영상처리부는 신호처리부를 통해 입력되는 영상신호를 처리하여 영상데이터를 획득하며, 획득된 영상데이터를 통신부(21)나 표시부(25)를 통해 출력하거나 저장부(23)에 저장한다. 또한 영상처리부는 통신부(21)를 통해 입력되는 상대방(착신자)의 영상데이터를 처리하여 표시부(25)를 통해 출력하거나 저장부(23)에 저장한다.The
출력부(25,26)는 표시부(25)와 음원처리부(26)를 포함한다. 출력부(25,26)는 진동을 발생시키는 진동발생부를 더 포함할 수 있다.The
표시부(25)는 발신 단말기(20)에서 실행되는 각종 기능 메뉴를 비롯하여 저장부(23)에 저장된 정보를 표시한다. 표시부(25)는 단말제어부(27)의 제어에 따라 상대방의 영상 또는 아바타를 표시한다. 표시부(25)로는 LCD(Liquid Crystal Display)나 터치 스크린이 사용될 수 있다. 터치 스크린은 표시 장치와 입력 장치로서의 역할을 동시에 수행한다.The
음원처리부(26)는 단말제어부(27)의 제어에 따라 마이크(MIC)로 입력되는 음성을 디지털화하여 음성정보를 획득하고, 통신부(21)를 통해 수신된 음성정보를 복조하여 스피커(SPK)를 통해 출력한다.The
그리고 단말제어부(27)는 발신 단말기(20)의 전반적인 제어 동작을 수행하는 마이크로프로세서(microprocessor)이다. 특히 단말제어부(27)는 영상통화 중 상대방 단말기로부터 수신한 영상데이터를 분석하여 상대방이 특정 제스처를 취하는 지를 모니터링하고, 모니터링 중 상대방이 취한 특정 제스처에 대응하는 아바타의 출력을 제어한다.In addition, the
단말제어부(27)는 아바타 설정 모드에서 상대방의 특정 제스처에 대응하는 아바타를 설정할 수 있다. 아바타는 일반, 날씨, 스포츠(골프, 농구, 야구 등) 등 사용자의 관심분야나 취미 등에 따라 다양하게 분류되어 제공될 수 있다. 사용자는 아바타 설정 모드에서 자신 또는 상대방이 좋아하거나 관심 있는 분야의 아바타를 선택하여 설정할 수 있다.The
예컨대 상대방의 특정 제스처에 따라 표1과 같이 동작할 아바타를 설정할 수 있다. 이때 감정상태는 기쁨, 슬픔, 놀람으로 한정하여 설명하였지만 이에 한정되는 것은 아니다. 또한 각각의 감정상태에 따른 아바타의 동작 또한 이에 한정되는 것은 아니다.For example, an avatar to operate as shown in Table 1 may be set according to a specific gesture of the other party. At this time, the emotional state is described as being limited to joy, sadness, surprise, but is not limited thereto. In addition, the motion of the avatar according to each emotional state is not limited thereto.
터트림Avatar crying
Turm
크게 뜸Avatar eyes
Large moxibustion
날씨에 산책함Avatar is sunny
Strolling in the weather
번개가 침Avatar head up
Lightning strikes
홀컵에 들어가 좋아함The ball put by the avatar
I like the hole cup
빠져 울음을 터트림Avatar tee shot in water
I burst out and cry
아바타가 깜짝 놀람The tee shot is hole-in-one
Avatar is surprised
성공함Avatar is on three point shot
Succeeded
빼앗김Avatar hit the ball
Deprived
블락슛을 당함Avatar shot
Blocked
한편 별도의 아바타를 설정하지 않는 경우, 단말제어부(27)는 디폴트로 서정된 아바타를 사용할 수 있다. 예컨대 일반 아바타가 디폴트로 설정될 수 있다.On the other hand, if a separate avatar is not set, the
여기서 단말제어부(27)는 영상통화 중 상대방의 제스처 인식을 통하여 아바타를 출력할 때 아래와 같은 방식으로 출력할 수 있다.The
먼저 단말제어부(27)는 통신부(21)를 통한 영상통화 중 착신 단말기(40)로부터 수신한 영상데이터에서 상대방이 특정 제스처를 취하는 지를 모니터링한다. 단말제어부(27)는 모니터링 중 상대방이 특정 제스처를 취하면, 특정 제스처에 대응하는 아바타를 저장부(23)에서 추출하고, 추출한 아바타를 출력부(25,26)로 출력한다.First, the
이때 단말제어부(27)는 다음과 같이 모니터링을 수행할 수 있다. 즉 단말제어부(27)는 영상통화 중 착신 단말기(40)로부터 수신한 영상데이터에서 상대방(객체)의 윤곽을 인지하는 알고리듬을 사용하여 상대방 영상을 추출한다. 단말제어부(27)는 추출된 상대방 영상에서 상대방이 취한 제스처를 인식한다. 그리고 단말제어부(27)는 인식한 제스처가 저장부(23)에 저장된 특정 제스처에 포함되는 지를 판단한다. 예컨대, 단말제어부(27)는 수신한 영상의 배경에서 상대방(객체) 영상을 추출하고, 추출한 상대방 영상에서 관심영역을 추출 및 추적하기 위해서, PCA(principal component analysis)를 통해 adaboost를 이용할 수 있다. 여기서 adaboost는 객체의 형태 및 관심영역를 추출 및 추적하기 위한 학습 알고리듬으로, Yoav Freund and Robert E. Schapire 에 의한 "A decision-theoretic generalization of on-line learning and an application to boosting", In Computational Learning Theory: Eurocolt '95, pp. 23-37, Springer-Verlag, 1995에 자세히 기재되어 있다.In this case, the
관심영역은 영상통화 중인 상대방의 감정상태를 사용자에게 전달할 수 있는 상대방 영상에서 선택될 수 있으며, 예컨대 상대방의 얼굴, 양 손, 양 팔, 양 발 중에 적어도 하나를 포함한다.The region of interest may be selected from a counterpart image capable of transmitting the emotional state of the counterpart in a video call to the user, and includes at least one of a face, two hands, both arms, and both feet of the counterpart.
아바타는 상대방이 취한 특정 제스처에 대응하는 설정된 행동 방식으로 동작한다. 특정 제스처에 대응되게 서로 다른 아바타가 설정될 수도 있고, 동일한 아바타에 대해서 행동 방식을 다르게 설정할 수도 있다.The avatar operates in a set manner of action corresponding to a specific gesture taken by the opponent. Different avatars may be set to correspond to a specific gesture, or a different behavior may be set for the same avatar.
다음으로 단말제어부(27)는 통신부(12)를 통한 영상통화 중 착신 단말기(40)로부터 수신한 영상데이터를 분석하여 상대방이 취하는 제스처에 따른 관심영역을 추출하여 추적한다. 단말제어부(27)는 추적한 관심영역에 대응되게 아바타를 변형한다. 그리고 단말제어부(27)는 변형된 아바타를 출력한다. 즉 아바타는 단말제어부(27)의 제어에 따라 상대방이 취한 제스처에 대응하는 행동 방식으로 동작한다.Next, the
이때 단말제어부(27)는 다음과 같이 관심영역을 추출하여 추적할 수 있다. 즉 단말제어부(27)는 영상통화 중 착신 단말기(40)로부터 수신한 영상데이터에서 상대방 영상을 추출한다. 단말제어부(27)는 추출된 상대방 영상에서 관심영역을 추출한다. 그리고 단말제어부(27)는 추출된 관심영역의 변화를 추적한다. 예컨대 단말제어부(27)는 수신한 영상의 배경에서 상대방(객체) 영상을 추출하고, 추출한 상대방 영상에서 관심영역을 추출 및 추적하기 위해서, PCA를 통해 adaboost를 이용할 수 있다.In this case, the
그리고 단말제어부(27)는 아바타를 표시부(25)에 표시할 때, 수신한 영상데이터에 중첩하여 표시하거나, PIP(Picture In Picture) 형태로 표시할 수 있다.When the
이와 같이 제1 실시예에 따른 감정 전달 시스템(100)의 영상통화 단말기(20,40)는 영상통화 중 상대방 단말기로부터 수신한 영상데이터에서 상대방이 특정 제스처를 취하게 되면 특정 제스처에 대응하는 아바타를 수신한 영상데이터와 함께 출력하여 상대방의 감정상태를 사용자에게 전달할 수 있다. 즉 영상통화 단말기(20,40)는 상대방의 영상 및 음성뿐만 아니라 상대방이 취한 제스처에 따른 아바타를 출력하여 상대방의 감정상태를 사용자에게 효과적으로 전달할 수 있다.As described above, the
그리고 영상통화 단말기(20,40)는 상대방의 특정 제스처에 대응하는 아바타를 출력하면서 영상통화를 수행할 수 있고, 사용자는 영상통화시 사용할 아바타를 자신이 직접 설정하여 사용할 수 있기 때문에, 영상통화자의 다양한 요구를 충족시키면서 영상통화자의 흥미를 유발하여 영상통화의 사용을 확대할 수 있다. 즉 사용자는 영상통화 단말기(20,40)를 통하여 상대방의 적어도 하나의 특정 제스처에 대응하는 아바타의 모습이나 행동 방식을 직접 설정할 수 있기 때문에, 사용자의 개성을 추구하면서 보다 흥미롭게 영상통화를 사용할 수 있는 환경을 제공할 수 있다.The
제1 실시예에 따른 영상통화 중 감정 전달 시스템(100)의 감정 전달 방법의 일 예에 대해서 도 1 내지 도 3을 참조하여 설명하면 다음과 같다. 여기서 도 3은 본 발명의 제1 실시예에 따른 영상통화 중 감정 전달 방법의 일 예에 따른 흐름도이다.An example of an emotion delivery method of the
먼저 S51단계에서 발신 단말기(20)가 영상 호를 발신하면, S53단계에서 통신망(10)은 이를 수신하여 착신 단말기(40)로 영상 호 착신을 요청한다. 즉, 발신 단말기(20)가 영상 호를 발신하면, 호제어기(14)는 위치등록기(16)로 발신 및 착신 단말기(20,40)의 가입자 정보(위치 정보 및 부가 서비스 정보)를 요청한다. 호제어기(14)는 수신한 가입자 정보를 토대로 라우팅 정보를 획득한다. 호제어기(14)는 획득한 라우팅 정보를 이용하여 착신 단말기(40)로 영상 호 착신을 요청한다.First, when the calling
한편 S51단계를 수행하기 전에, 발신 단말기(20)는 입력부(22)를 통한 사용자의 선택 신호에 따라 아바타 설정 모드에서 상대방의 특정 제스처에 대응하는 아바타를 설정할 수 있다. 사용자는 아바타 설정 모드에서 자신 또는 상대방이 좋아하거나 관심 있는 분야의 아바타를 선택하여 설정할 수 있다.Meanwhile, before performing step S51, the calling
다음으로 S55단계에서 착신 단말기(40)가 영상 호에 대한 수락을 통신망(10)으로 전송하면, S57단계에서 통신망(10)은 발신 단말기(20)와 착신 단말기(40) 간에 영상통화를 위한 영상 호 경로를 설정한다. 즉 호제어기(14)는 착신 단말기(40)를 페이징하여 착신을 요청하고, 착신 단말기(40)가 착신 요청에 대하여 호를 수락하면, 호제어기(14)는 발신 단말기(20)와 착신 단말기(40) 간에 영상 호 경로를 설정한다.Next, when the called terminal 40 transmits the acceptance of the video call to the
이와 같이 발신 단말기(20)와 착신 단말기(40) 간에 영상 호 경로가 설정된 후, 설정된 영상 호 경로를 통해 발신 단말기(20)와 착신 단말기(40)는 영상통화를 수행하게 된다.As such, after the video call path is set between the calling
다음으로 S59단계에서 영상통화 중 발신 단말기(20)가 사용자로부터 아바타 제공 요청 신호가 입력되는 지의 여부를 판단한다. 이때 사용자는 입력부(22)를 통하여 아바타 제공 요청 신호를 입력할 수 있다.Next, in operation S59, the calling
S59단계의 판단 결과 입력되지 않은 경우, 발신 단말기(20)는 S57단계에 따른 영상통화를 계속적으로 수행한다.If it is determined that the determination in step S59 is not input, the calling
S59단계의 판단 결과 입력된 경우, S61단계 내지 S65단계에서 발신 단말기(20)는 착신 단말기(20)의 사용자 즉 상대방이 특정 제스처를 취하는 지의 여부를 모니터링한다. 모니터링 단계를 구체적으로 설명하면 다음과 같다.When the determination result of step S59 is input, in steps S61 to S65, the calling
S61단계에서 발신 단말기(20)는 착신 단말기(40)로부터 수신한 영상데이터에서 상대방 영상을 추출한다. 수신한 영상데이터는 복수의 프레임 영상 데이터를 포함하며, 일정 시간에 수신되는 영상데이터에 포함된 복수의 프레임 영상 데이터에서 일정 수의 영상데이터를 캡쳐하고, 캡쳐한 영상데이터에서 상대방 영상을 추출할 수 있다.In step S61, the calling
이어서 S63단계에서 발신 단말기(20)는 추출한 상대방 영상에서 상대방이 취한 제스처를 인식한다. 이때 발신 단말기(20)는 추출한 상대방 영상에서 다음과 같은 방식으로 상대방이 취한 제스처를 인식할 수 있다. 즉 발신 단말기(20)는 추출한 상대방 영상에서 상대방이 취하는 제스처에 따른 관심영역을 추출하여 추적한다. 발신 단말기(20)는 추적한 관심영역을 이용하여 상대방의 제스처를 인식한다. 예컨대 단말제어부(27)는 수신한 영상의 배경에서 상대방(객체) 영상을 추출하고, 추출한 상대방 영상에서 관심영역을 추출 및 추적하기 위해서, PCA를 통해 adaboost를 이용할 수 있다.Subsequently, in step S63, the calling
다음으로 S65단계에서 발신 단말기(20)는 인식한 제스처가 저장부(23)에 저장된 특정 제스처인지의 여부를 판단한다. 예컨대 발신 단말기(20)는 인식한 제스처에 포함된 관심영역과 저장된 특정 제스처의 관심영역을 비교하여 일치하는 특정 제스처가 있는 지의 여부로 S65단계를 수행할 수 있다.Next, in step S65, the calling
S65단계의 판단 결과 저장된 특정 제스처가 아닌 경우, 발신 단말기(20)는 S61단계부터 다시 수행한다.If the result of the determination in step S65 is not a stored specific gesture, the calling
S65단계의 판단 결과 저장된 특정 제스처인 경우, S67단계에서 발신 단말기(20)는 특정 제스처에 대응하는 아바타를 저장부(23)에서 추출한다. 예컨대 사용자가 골프 아바타를 설정한 상태에서, 발신 단말기(20)가 특정 제스처로서 상대방의 활짝 웃는 모습을 인지하면, 골프 아바타에서 기쁨을 표현하는 아바타를 추출한다.In the case of a specific gesture stored as a result of the determination in step S65, in operation S67, the calling
그리고 S69단계에서 발신 단말기(20)는 추출한 아바타를 출력부(25,26)을 통하여 출력한다. 이때 발신 단말기(20)는 수신한 영상데이터와 함께 아바타를 출력한다. 예컨대 추출한 아바타가 골프 아바타에서 기쁨을 표현하는 아바타인 경우, 발신 단말기(20)는 아바타가 퍼팅한 공이 홀컵에 들어가 좋아하는 모습을 출력하여 상대방의 기분 좋은 감정상태를 사용자에게 전달한다. 이때 아바타는 표시부(25)에 표시될 때, 수신한 영상데이터에 중첩되어 표시되거나 PIP 형태로 표시될 수 있다.In operation S69, the calling
따라서 발신 단말기(20)의 사용자는 출력되는 아바타를 통하여 착신 단말기(40) 사용자의 감정상태를 쉽게 알 수 있다. 예컨대 상대방이 고개를 좌우로 흔드는 제스처를 취하는 경우, 거부, 싫음 등과 같은 부정적인 감정상태를 표현하고자 할 때 취하는 제스처이다. 발신 단말기(20)가 이와 같은 부정적인 감정상태에 따른 상대방의 특정 제스처를 인식하면, 아바타의 표정이나 행동을 통하여 부정적인 감정상태를 표현하여 사용자에게 전달한다.Therefore, the user of the calling
한편 상기한 설명에서는 발신 단말기(20)에서 아바타 제공 요청 신호를 발신하는 예를 개시하였지만, 발신 단말기(20) 또는 착신 단말기(40)에서 아바타 제공 요청 신호를 발신할 수 있다.Meanwhile, in the above description, an example in which the calling
제1 실시예에 따른 영상통화 중 감정 전달 시스템(100)의 감정 전달 방법의 다른 예에 대해서 도 1, 도 2 및 도 4를 참조하여 설명하면 다음과 같다. 여기서 도 4는 본 발명의 제1 실시예에 따른 영상통화 중 감정 전달 방법의 다른 예에 따른 흐름도이다.Another example of an emotion delivery method of the
먼저 S51단계 내지 S61단계까지는 도 3의 감정 전달 방법에 따른 일 예와 동일하게 진행되기 때문에 상세한 설명은 생략하고, S61단계에 따른 수신한 영상에서 상대방 영상을 추출하는 단계 이후부터 설명하면 다음과 같다.First, since steps S51 to S61 proceed in the same manner as the example of the emotion transmitting method of FIG. 3, a detailed description thereof will be omitted and the following description will be made after extracting the counterpart image from the received image according to step S61. .
다음으로 S62단계에서 발신 단말기(20)는 추출한 상대방 영상에서 상대방이취하는 제스처에 따른 관심영역을 추출하여 추적한다.Next, in step S62, the calling
다음으로 S64단계에서 발신 단말기(20)는 추적한 관심영역에 대응되게 아바타를 변형한다. 즉 발신 단말기(20)는 저장부(23)로부터 사용자가 설정한 아바타를 호출한다. 이어서 발신 단말기(20)는 추적한 관심영역에 대응되는 아바타의 관심영역을 추적한 관심영역에 대응되게 변형한다. 예컨대, 상대방이 양 팔 또는 양 손을 사용하여 하트 모양의 제스처를 취하는 경우, 아바타 제공서버(30)는 상대방의 제스처와 동일하게 아바타의 양 팔 또는 양 손을 사용하여 하트 모양의 제스처를 취하도록 변형한다.Next, in step S64, the calling
여기서 아바타는 발신 단말기(20)의 사용자가 설정한 아바타이다. 사용자는 착신 단말기(40)의 사용자에 따라서 아바타를 다르게 설정할 수도 있다.Here, the avatar is an avatar set by the user of the calling
그리고 S66단계에서 발신 단말기(20)는 변형한 아바타를 출력부(25,26)로 출력한다. 이때 발신 단말기(20)는 수신한 영상데이터와 함께 아바타를 출력한다. 예컨대 아바타는 표시부(25)에 표시될 때, 수신한 영상데이터에 중첩되어 표시되거나 PIP 형태로 표시될 수 있다.In operation S66, the calling
따라서 발신 단말기(20)의 사용자는 출력되는 아바타를 통하여 착신 단말기(40) 사용자의 감정상태를 쉽게 알 수 있다.Therefore, the user of the calling
한편 상기한 설명에서는 발신 단말기(20)에서 아바타 제공 요청 신호를 발신하는 예를 개시하였지만, 발신 단말기(20) 또는 착신 단말기(40)에서 아바타 제공 요청 신호를 발신할 수 있다.Meanwhile, in the above description, an example in which the calling
그리고 제1 실시예에 따른 영상통화 중 감정 전달 시스템(100)은 아바타 제공 요청 신호를 입력하는 사용자의 요청에 따라 영상통화 단말기(20,40)가 상대방의 제스처에 대응하는 아바타를 화면에 출력하는 예를 개시하였지만 이에 한정되는 것은 아니다. 예컨대 영상통화 단말기(20,40)는 사용자의 설정에 따라 사용자가 아바타 제공 요청 신호를 입력하지 않더라도 영상통화 시 상대방의 제스처에 따른 아바타를 추출하여 출력부(25,26)로 출력할 수도 있다.In the video call according to the first embodiment, the
한편 제1 실시예에 따른 영상통화 중 감정 전달 시스템(100)은 발신 단말기(20) 또는 착신 단말기(40)가 상대방의 제스처에 대응하는 아바타를 출력하는 예를 개시하였지만 이에 한정되는 것은 아니다. 즉 도 5에 도시된 바와 같이 발신 단말기(20) 또는 착신 단말기(40)의 요청에 따라 아바타 제공서버(30)를 통하여 아바타를 수신하여 출력할 수 있다.Meanwhile, the
본 발명의 제2 실시예에 따른 영상통화 중 감정 전달 시스템(200)은, 도 5에 도시된 바와 같이, 통신망(10)을 매개로 연결된 발신 단말기(20), 아바타 제공서버(30) 및 착신 단말기(40)를 포함하여 구성된다.In the video call
발신 단말기(20)와 착신 단말기(40)는 통신망(10)을 매개로 서로 간에 영상통화를 수행한다. 발신 단말기(20) 또는 착신 단말기(40)로부터 아바타 제공 요청 신호가 입력되면, 아바타 제공 요청 신호를 발신한 단말기는 아바타 제공 요청 신호를 통신망(10)를 통하여 아바타 제공서버(30)로 전송한다.The calling
통신망(10)은 발신 단말기(20), 아바타 제공서버(30) 및 착신 단말기(40) 사이의 데이터 전송 및 정보 교환을 위한 일련의 데이터 송수신 동작을 수행한다. 특히 통신망(10)은 영상통화 중인 발신 단말기(20) 또는 착신 단말기(40)로부터 아바타 제공 요청 신호를 수신하면, 아바타 제공서버(30)와 발신 단말기(20) 간의 세션 및 아바타 제공서버(30)와 착신 단말기(40) 간의 세션을 설정한다. 즉 발신 단말기(20)로부터 영상 호를 수신하면, 통신망(10)은 발신 단말기(20)와 착신 단말기(30) 간의 영상통화를 위한 영상 호 경로를 설정한다. 통신망(10)이 영상통화 중 발신 단말기(20) 또는 착신 단말기(40)로부터 아바타 제공 요청 신호를 수신하면, 통신망(10)은 발신 단말기(20) 및 착신 단말기(40) 간의 설정된 영상 호 경로를 해제하고, 아바타 제공서버(30)와 발신 단말기(20) 간의 세션 및 아바타 제공서버(30)와 착신 단말기(40) 간의 세션을 설정한다.The
그리고 아바타 제공서버(30)는 통신망(10)을 매개로 발신 단말기(20) 및 착신 단말기(30)와 통신을 수행한다. 아바타 제공서버(30)는 발신 단말기(20) 또는 착신 단말기(40)로부터 아바타 제공 요청 신호를 수신하면, 아바타 제공 요청 신호를 발신한 단말기의 상대방이 취한 특정 제스처에 대응하는 아바타를 영상통화 트래픽에 실어서 사용자 단말기로 전송한다. 한편으로 아바타는 현재 설정된 영상 호 경로 이외에 별도의 SMS(short Message Service) 또는 MMS(Multimedia Message Service)와 같은 메시지 서비스 채널을 통하여 사용자 단말기로 전송될 수 있다.The
사용자 단말기는 수신한 아바타를 포함한 상대방 영상을 표시한다. 이때 사용자 단말기는 영상데이터와 아바타를 표시부(25)에 표시할 때, 영상데이터와 아바타를 중첩하여 표시하거나 PIP 형태로 표시할 수 있다. 따라서 사용자는 수신한 아바타를 통하여 상대방의 감정상태를 알 수 있다.The user terminal displays the counterpart image including the received avatar. In this case, when the user terminal displays the image data and the avatar on the
특히 제2 실시예에 따른 아바타 제공서버(30)는 송수신부(31), 데이터베이스부(33) 및 제어부(35)를 포함하여 구성된다.In particular, the
송수신부(31)는 통신망(10)을 매개로 발신 단말기(20) 및 착신 단말기(40)와 통신을 수행한다. 송수신부(31)는 제어부(35)의 제어에 따라 발신 단말기(20) 또는 착신 단말기(40)로부터 아바타 제공 요청 신호를 수신한다. 송수신부(31)는 제어부(35)의 제어에 따라 아바타 제공 요청 신호를 발신한 단말기의 상대방이 취한 특정 제스처에 대응하는 아바타를 영상통화 트래픽에 실어서 사용자 단말기로 전송한다.The
데이터베이스부(33)는 발신 단말기(20) 또는 착신 단말기(40)를 포함하는 영상통화 단말기의 특정 제스처에 대응하는 아바타를 저장한다. 또한 데이터베이스부(33)는 영상통화 단말기(20,40)의 사용자에 의해 설정된 아바타를 저장할 수 있다. 이때 데이터베이스부(33)는 상대방의 단말정보에 매칭하여 아바타를 저장한다.The
그리고 제어부(35)는 아바타 제공서버(30)의 전반적인 제어 동작을 수행한다. 특히 제어부(35)는 영상통화 중 상대방의 제스처 인식을 통한 사용자 단말기로의 아바타 전송을 제어한다.In addition, the
제어부(35)는 아바타 설정 모드에서, 영상통화 단말기(20,40)를 통한 사용자의 선택 신호에 따라 상대방의 특정 제스처에 대응하는 아바타를 설정할 수 있다. 이때 제어부(35)에 의한 아바타의 설정은 도 2의 단말제어부(23)에 의한 설정 방식과 동일한 방식으로 수행될 수 있기 때문에, 상세한 설명은 생략한다.In the avatar setting mode, the
제어부(35)는 영상통화 중 상대방 단말기로부터 수신한 영상데이터를 분석하여 상대방이 특정 제스처를 취하는 지를 모니터링하고, 모니터링 중 상대방이 취한 특정 제스처에 대응하는 아바타의 전송을 제어한다. 이때 제어부(35)는 영상통화 중 아바타 제공 요청 신호를 발신한 단말기의 상대방의 제스처 인식을 통하여 아바타를 전송할 때 아래와 같은 방식으로 전송할 수 있다.The
먼저 제어부(35)는 영상통화 중인 발신 단말기(20) 또는 착신 단말기(40)의 아바타 제공 요청 신호에 따라 통신망(10)에 의해 발신 단말기(20) 및 착신 단말기(40)와 각각 세션을 설정한다. 제어부(35)는 아바타 제공 요청 신호를 발신한 단말기의 상대방 단말기로부터 상대방 영상을 포함한 영상데이터를 수신하고, 수신한 영상데이터를 분석하여 상대방이 특정 제스처를 취하는 지를 모니터링한다. 제어부(35)는 모니터링 중 상대방이 특정 제스처를 취하면, 특정 제스처에 대응하는 아바타를 데이터베이스부(33)에서 추출한다. 그리고 제어부(35)는 추출한 아바타를 포함하는 영상통화 트래픽을 사용자 단말기로 전송한다.First, the
이때 아바타는 상대방이 취한 특정 제스처에 대응하는 설정된 행동 방식으로 동작한다. 특정 제스처에 대응되게 서로 다른 아바타가 설정될 수도 있고, 동일한 아바타에 대해서 행동 방식을 다르게 설정할 수도 있다.In this case, the avatar operates in a set manner of action corresponding to a specific gesture taken by the other party. Different avatars may be set to correspond to a specific gesture, or a different behavior may be set for the same avatar.
다음으로 제어부(35)는 영상통화 중인 발신 단말기(20) 또는 착신 단말기(40)의 아바타 제공 요청 신호에 따라 통신망(10)에 의해 발신 단말기(20) 및 착신 단말기(40)와 각각 세션을 설정한다. 제어부(35)는 아바타 제공 요청 신호를 발신한 단말기의 상대방 단말기로부터 촬영된 상대방의 영상을 포함한 영상데이터를 수신하고, 영상데이터를 분석하여 상대방이 취하는 제스처에 따른 관심영역을 추출하여 추적한다. 제어부(35)는 추적한 관심영역에 대응되게 아바타를 변형한다. 그리고 제어부(35)는 변형된 아바타를 포함하는 영상통화 트래픽을 사용자 단말기로 전송한다. 이때 제어부(35)는 사용자가 설정한 아바타를 데이터베이스부(33)에서 호출하며, 상대방이 취한 제스처에 대응하는 행동 방식으로 동작하도록 호출한 아바타를 변형한다.Next, the
이때 제어부(35)는 다음과 같이 관심영역을 추적할 수 있다. 즉 제어부(35)는 수신한 촬영된 영상에서 상대방 영상을 추출한다. 제어부(35)는 추출된 상대방 영상에서 관심영역을 추출한다. 그리고 제어부(35)는 추출된 관심영역의 변화를 추적한다. 예컨대, 제어부(35)는 수신한 영상의 배경에서 상대방(객체) 영상을 추출하고, 추출한 상대방 영상에서 관심영역을 추출 및 추적하기 위해서, PCA를 통해 adaboost를 이용할 수 있다. 관심영역은 영상통화 중인 상대방의 감정상태를 사용자에게 전달할 수 있는 상대방 영상에서 선택될 수 있으며, 예컨대 상대방의 얼굴, 양 손, 양 팔, 양 발 중에 적어도 하나를 포함한다.In this case, the
한편 상기한 설명에서는 아바타 제공서버(30)가 발신 단말기(20)가 요청한 아바타를 포함한 상대방 영상을 수신하는 예를 개시하였지만, 발신 단말기(20) 또는 착신 단말기(40)가 요청한 아바타를 포함한 상대방 영상을 수신할 수 있다.Meanwhile, in the above description, the
제2 실시예에 따른 영상통화 중 감정 전달 시스템(200)의 감정 전달 방법의 일 예에 대해서 도 5 및 도 6을 참조하여 설명하면 다음과 같다. 여기서 도 6은 본 발명의 제2 실시예에 따른 영상통화 중 감정 전달 방법의 일 예에 따른 흐름도이다.An example of an emotion delivery method of the
먼저 S151단계 내지 S157단계까지는 도 3의 감정 전달 방법에 따른 일 예의 S51단계 내지 S57단계와 동일하게 진행되기 때문에 상세한 설명은 생략하고, S157단계 다음에 수행되는 S159단계부터 설명하면 다음과 같다. 한편 S151단계를 수행하기 전에, 발신 단말기(20)는 입력부(22)를 통한 사용자의 선택 신호에 따라 아바타 설정 모드에서 상대방의 특정 제스처에 대응하는 아바타를 설정할 수 있다. 사용자는 아바타 설정 모드에서 자신 또는 상대방이 좋아하거나 관심 있는 분야의 아바타를 선택하여 설정할 수 있다.First, since steps S151 to S157 proceed in the same manner as steps S51 to S57 according to the example of the emotional delivery method of FIG. 3, a detailed description thereof will be omitted and will be described below from step S159 performed after step S157. Meanwhile, before performing step S151, the calling
다음으로 S159단계에서 영상통화 중 발신 단말기(20)가 사용자로부터 아바타 제공 요청 신호가 입력되는 지의 여부를 판단한다. 이때 사용자는 입력부(22)를 통하여 아바타 제공 요청 신호를 입력할 수 있다.Next, in operation S159, the calling
S159단계의 판단 결과 입력되지 않은 경우, 발신 단말기(20)는 S157단계에 따른 영상통화를 계속적으로 수행한다.If it is not input as a result of determination in step S159, the calling
S159단계의 판단 결과 입력된 경우, S161단계 내지 S175단계에서 착신 단말기(40)의 사용자가 특정 제스처를 취하는 지의 여부를 모니터링하는 단계를 수행한다.When the determination result of step S159 is input, in step S161 to step S175 performs a step of monitoring whether or not the user of the called
즉 S161단계에서 발신 단말기(20)는 아바타 제공 요청 신호를 통신망(10)으로 전송한다. S163단계에서 통신망(10)은 수신한 아바타 제공 요청 신호를 아바타 제공서버(30)로 전달한다. 동시에 S165단계 및 S167단계에서 통신망(10)은 아바타 제공서버(30)와 발신 단말기(20) 간의 세션 및 아바타 제공서버(30)와 착신 단말기(40) 간의 세션을 설정한다. 이때 통신망(10)은 S157단계에서 설정된 영상 호 경로를 해제한다. 발신 단말기(20)와 착신 단말기(40)는 각각 아바타 제공서버(30)와 세션이 설정된다.That is, in step S161, the calling
다음으로 S169단계에서 착신 단말기(40)는 촬영된 영상데이터를 아바타 제공서버(30)로 전송한다.Next, the
다음으로 S171단계에서 아바타 제공서버(30)는 수신한 영상에서 상대방 영상을 추출한다. 이때 수신한 영상데이터는 복수의 프레임 영상 데이터를 포함하며, 아바타 제공서버(30)는 일정 시간에 수신되는 영상데이터에 포함된 복수의 프레임 영상 데이터에서 일정 수의 영상데이터를 캡쳐하고, 캡쳐한 영상데이터에서 상대방 영상을 추출할 수 있다.Next, in step S171, the
이어서 S173단계에서 아바타 제공서버(30)는 추출한 상대방 영상에서 상대방이 취한 제스처를 인식한다.Subsequently, in step S173, the
이때 아바타 제공서버(30)는 추출한 상대방 영상에서 다음과 같은 방식으로 상대방이 취한 제스처를 인식할 수 있다. 즉 아바타 제공서버(30)는 추출한 상대방 영상에서 상대방이 취하는 제스처에 따른 관심영역을 추출하여 추적한다. 아바타 제공서버(30)는 추적한 관심영역을 이용하여 상대방의 제스처를 인식한다. 이때 아바타 제공서버(30)는 수신한 영상의 배경에서 상대방(객체) 영상을 추출하고, 추출한 상대방 영상에서 관심영역을 추출 및 추적하기 위해서, PCA를 통해 adaboost를 이용할 수 있다.In this case, the
다음으로 S175단계에서 아바타 제공서버(30)는 인식한 제스처가 데이터베이스부(33)에 저장된 특정 제스처인지의 여부를 판단한다. 예컨대 아바타 제공서버(30)는 인식한 제스처에 포함된 관심영역과 저장된 특정 제스처의 관심영역을 비교하여 일치하는 특정 제스처가 있는 지의 여부로 S175단계를 수행할 수 있다.In operation S175, the
S175단계의 판단 결과 저장된 특정 제스처가 아닌 경우, 아바타 제공서버(30)는 S171단계부터 다시 수행한다.If the result of the determination in step S175 is not a stored specific gesture, the
S175단계의 판단 결과 저장된 특정 제스처인 경우, S177단계에서 아바타 제공서버(30)는 특정 제스처에 대응하는 아바타를 데이터베이스부(33)에서 추출한다. 예컨대 사용자가 골프 아바타를 설정한 상태에서, 아바타 제공서버(30)가 특정 제스처로서 상대방의 활짝 웃는 모습을 인지하면, 아바타 제공서버(20)는 골프 아바타에서 기쁨을 표현하는 아바타를 추출한다.In the case of a specific gesture stored as a result of the determination in step S175, in step S177, the
다음으로 S179단계에서 아바타 제공서버(30)는 추출한 아바타를 포함하는 영상통화 트래픽을 발신 단말기(20)로 전송한다.Next, in step S179, the
그리고 S181단계에서 발신 단말기(20)는 수신한 아바타가 포함된 상대방 영상을 화면에 표시한다. 예컨대 수신한 아바타가 골프 아바타에서 기쁨을 표현하는 아바타인 경우, 발신 단말기(20)는 아바타가 퍼팅한 공이 홀컵에 들어가 좋아하는 모습을 출력하여 상대방의 기분 좋은 감정상태를 사용자에게 전달한다. 이때 아바타는 화면에 표시될 때, 상대방 영상에 중첩되어 표시되거나 PIP 형태로 표시될 수 있다. 따라서 발신 단말기(20)의 사용자는 출력되는 아바타를 통하여 착신 단말기(40) 사용자의 감정상태를 쉽게 알 수 있다.In operation S181, the calling
한편 상기한 설명에서는 발신 단말기(20)의 요청에 따라 아바타 제공서버(30)가 아바타를 포함한 상대방 영상을 발신 단말기(20)로 전송하는 예를 개시하였지만, 발신 단말기(20) 또는 착신 단말기(40)의 요청에 따라 아바타 제공서버(30)가 아바타를 포함한 상대방 영상을 사용자 단말기로 전송할 수 있다.Meanwhile, in the above description, although the
제2 실시예에 따른 영상통화 중 감정 전달 시스템(200)의 감정 전달 방법의 다른 예에 대해서 도 5 및 도 7을 참조하여 설명하면 다음과 같다. 여기서 도 7은 본 발명의 제2 실시예에 따른 영상통화 중 감정 전달 방법의 다른 예에 따른 흐름도이다.Another example of an emotion delivery method of the
먼저 S151단계 내지 S171단계는 도 6의 감정 전달 방법에 따른 일 예와 동일하게 진행되기 때문에 상세한 설명은 생략하고, S171단계 다음에 수행되는 S172단계부터 설명하면 다음과 같다. 한편 S151단계를 수행하기 전에, 발신 단말기(20)는 입력부(22)를 통한 사용자의 선택 신호에 따라 아바타 설정 모드에서 상대방의 특정 제스처에 대응하는 아바타를 설정할 수 있다. 사용자는 아바타 설정 모드에서 자신 또는 상대방이 좋아하거나 관심 있는 분야의 아바타를 선택하여 설정할 수 있다.First, since steps S151 to S171 proceed in the same manner as the example according to the emotion transmitting method of FIG. 6, a detailed description thereof will be omitted and described from step S172 performed after step S171 as follows. Meanwhile, before performing step S151, the calling
다음으로 S172단계에서 아바타 제공서버(30)는 추출한 상대방 영상에서 상대방이 취하는 제스처에 따른 관심영역을 추출하여 추적한다. 이때 아바타 제공서버(30)는 수신한 영상의 배경에서 상대방(객체) 영상을 추출하고, 추출한 상대방 영상에서 관심영역을 추출 및 추적하기 위해서, PCA를 통해 adaboost를 이용할 수 있다.Next, in step S172, the
다음으로 S174단계에서 아바타 제공서버(30)는 추적한 관심영역에 대응되게 아바타를 변형한다. 즉 아바타 제공서버(30)는 데이터베이스부(33)로부터 사용자에 의해 설정된 아바타를 호출한다. 이어서 아바타 제공서버(30)는 추적한 관심영역에 대응되는 아바타의 관심영역을 추적한 관심영역에 대응되게 변형한다. 예컨대, 상대방이 양 팔 또는 양 손을 사용하여 하트 모양의 제스처를 취하는 경우, 아바타 제공서버(30)는 상대방의 제스처와 동일하게 아바타의 양 팔 또는 양 손을 사용하여 하트 모양의 제스처를 취하도록 변형한다.Next, in step S174, the
여기서 아바타는 발신 단말기(20)의 사용자가 설정한 아바타이다. 사용자는 착신 단말기(40)의 사용자에 따라서 아바타를 다르게 설정할 수도 있다.Here, the avatar is an avatar set by the user of the calling
다음으로 S176단계에서 아바타 제공서버(30)는 변형한 아바타를 포함하는 영상통화 트래픽을 발신 단말기(20)로 전송한다. 한편 아바타 제공서버(30)는 현재 설정된 영상 호 경로 이외에 별도의 데이터 서비스 채널을 생성하여 발신 단말기(20)로 변형된 아바타를 전송할 수 있다.Next, the
그리고 S178단계에서 발신 단말기(20)는 수신한 아바타가 포함된 상대방 영상을 화면에 표시한다. 예컨대 아바타는 화면에 표시될 때, 상대방 영상에 중첩되어 표시되거나 PIP 형태로 표시될 수 있다. 따라서 발신 단말기(20)의 사용자는 출력되는 아바타를 통하여 착신 단말기(40) 사용자의 감정상태를 쉽게 알 수 있다.In operation S178, the calling
한편 상기한 설명에서는 발신 단말기(20)의 요청에 따라 아바타 제공서버(30)가 아바타를 포함한 상대방 영상을 발신 단말기(20)로 전송하는 예를 개시하였지만, 발신 단말기(20) 또는 착신 단말기(40)의 요청에 따라 아바타 제공서버가 아바타를 포함한 상대방 영상을 사용자 단말기로 전송할 수 있다.Meanwhile, in the above description, although the
한편, 본 명세서와 도면에 개시된 본 발명의 실시예들은 이해를 돕기 위해 특정 예를 제시한 것에 지나지 않으며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 것이다.On the other hand, the embodiments of the present invention disclosed in the specification and drawings are merely presented specific examples to aid understanding, and are not intended to limit the scope of the present invention. In addition to the embodiments disclosed herein, it is apparent to those skilled in the art that other modifications based on the technical idea of the present invention may be implemented.
본 발명은 제스처 인식을 통한 영상통화 중 감정 전달 시스템 및 방법에 관한 것으로, 영상통화 단말기는 영상통화 중 상대방 단말기로부터 수신한 영상데이터를 분석하여 감지한 상대방의 제스처에 대응하는 아바타를 출력하면서 영상통화를 수행할 수 있고, 사용자는 영상통화시 사용할 아바타를 자신이 직접 설정하여 사용할 수 있기 때문에, 영상통화자의 다양한 요구를 충족시키면서 영상통화자의 흥미를 유발하여 영상통화의 사용을 확대할 수 있고, 또한 사용자는 영상통화 단말기를 통하여 상대방의 적어도 하나의 제스처에 대응하는 아바타의 모습이나 행동 방식을 직접 설정할 수 있기 때문에, 사용자의 개성을 추구하면서 보다 흥미롭게 영상통화를 사용할 수 있는 환경을 제공할 수 있다.The present invention relates to a system and method for transmitting emotions during a video call through gesture recognition, wherein the video call terminal analyzes the image data received from the counterpart terminal during the video call and outputs an avatar corresponding to the detected gesture of the counterpart. Since the user can directly set and use the avatar to be used in the video call, the user can expand the use of the video call by inducing the interest of the video call while satisfying various needs of the video caller. Since the user can directly set the appearance or behavior of the avatar corresponding to at least one gesture of the other party through the video call terminal, the user can provide an environment in which the video call can be used more interestingly while pursuing the user's personality.
도 1은 본 발명의 제1 실시예에 따른 영상통화 중 감정 전달 시스템을 보여주는 블록도이다.1 is a block diagram illustrating an emotion transmission system during a video call according to a first embodiment of the present invention.
도 2는 도 1의 영상통화 단말기의 구성을 보여주는 블록도이다.2 is a block diagram illustrating a configuration of a video call terminal of FIG. 1.
도 3은 본 발명의 제1 실시예에 따른 영상통화 중 감정 전달 방법의 일 예에 따른 흐름도이다.3 is a flowchart illustrating an example of a method for transmitting emotion during a video call according to the first embodiment of the present invention.
도 4는 본 발명의 제1 실시예에 따른 영상통화 중 감정 전달 방법의 다른 예에 따른 흐름도이다.4 is a flowchart illustrating another example of a method for transmitting emotion during a video call according to the first embodiment of the present invention.
도 5는 본 발명의 제2 실시예에 따른 영상통화 중 감정 전달 시스템을 보여주는 블록도이다.5 is a block diagram illustrating an emotion transmission system during a video call according to a second embodiment of the present invention.
도 6은 본 발명의 제2 실시예에 따른 영상통화 중 감정 전달 방법의 일 예에 따른 흐름도이다.6 is a flowchart illustrating an example of a method for transmitting emotion during a video call according to a second embodiment of the present invention.
도 7은 본 발명의 제2 실시예에 따른 영상통화 중 감정 전달 방법의 다른 예에 따른 흐름도이다.7 is a flowchart illustrating another example of a method for transmitting emotion during a video call according to the second embodiment of the present invention.
* 도면의 주요 부분에 대한 설명 *Description of the Related Art [0002]
10 : 통신망10: communication network
20 : 발신 단말기20: calling terminal
30 : 아바타 제공서버30: avatar providing server
40 : 착신 단말기40: called terminal
100, 200 : 감정 전달 시스템100, 200: emotional delivery system
Claims (23)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090083727A KR101205189B1 (en) | 2009-09-05 | 2009-09-05 | System and method for delivering feeling during video call |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090083727A KR101205189B1 (en) | 2009-09-05 | 2009-09-05 | System and method for delivering feeling during video call |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110025721A true KR20110025721A (en) | 2011-03-11 |
KR101205189B1 KR101205189B1 (en) | 2012-11-27 |
Family
ID=43933143
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090083727A KR101205189B1 (en) | 2009-09-05 | 2009-09-05 | System and method for delivering feeling during video call |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101205189B1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013027893A1 (en) * | 2011-08-22 | 2013-02-28 | Kang Jun-Kyu | Apparatus and method for emotional content services on telecommunication devices, apparatus and method for emotion recognition therefor, and apparatus and method for generating and matching the emotional content using same |
WO2014022022A1 (en) * | 2012-08-01 | 2014-02-06 | Google Inc. | Using an avatar in a videoconferencing system |
KR20140057036A (en) * | 2012-11-02 | 2014-05-12 | 삼성전자주식회사 | Method for providing information and electronic apparatus thereof |
KR102114457B1 (en) * | 2019-10-21 | 2020-05-22 | (주)부즈 | Method and apparatus for processing real-time character streaming contents |
US11765320B2 (en) | 2021-08-11 | 2023-09-19 | Google Llc | Avatar animation in virtual conferencing |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100439182B1 (en) * | 2001-05-09 | 2004-07-05 | 한국식품개발연구원 | Agastache rugosa extracts-containing composition and method for preparing same |
KR100450327B1 (en) * | 2002-08-07 | 2004-09-24 | 학교법인 경북과학대학 | Producing method of Hyssop Beverage |
-
2009
- 2009-09-05 KR KR1020090083727A patent/KR101205189B1/en active IP Right Grant
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013027893A1 (en) * | 2011-08-22 | 2013-02-28 | Kang Jun-Kyu | Apparatus and method for emotional content services on telecommunication devices, apparatus and method for emotion recognition therefor, and apparatus and method for generating and matching the emotional content using same |
WO2014022022A1 (en) * | 2012-08-01 | 2014-02-06 | Google Inc. | Using an avatar in a videoconferencing system |
US9191619B2 (en) | 2012-08-01 | 2015-11-17 | Google Inc. | Using an avatar in a videoconferencing system |
US9723265B2 (en) | 2012-08-01 | 2017-08-01 | Google Inc. | Using an avatar in a videoconferencing system |
US10225519B2 (en) | 2012-08-01 | 2019-03-05 | Google Llc | Using an avatar in a videoconferencing system |
KR20200087284A (en) * | 2012-08-01 | 2020-07-20 | 구글 엘엘씨 | Using an avatar in a videoconferencing system |
KR20140057036A (en) * | 2012-11-02 | 2014-05-12 | 삼성전자주식회사 | Method for providing information and electronic apparatus thereof |
KR102114457B1 (en) * | 2019-10-21 | 2020-05-22 | (주)부즈 | Method and apparatus for processing real-time character streaming contents |
US11765320B2 (en) | 2021-08-11 | 2023-09-19 | Google Llc | Avatar animation in virtual conferencing |
Also Published As
Publication number | Publication date |
---|---|
KR101205189B1 (en) | 2012-11-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101205189B1 (en) | System and method for delivering feeling during video call | |
US11503377B2 (en) | Method and electronic device for processing data | |
US20220284735A1 (en) | Identifying and addressing offensive actions in visual communication sessions | |
CN107835464B (en) | Video call window picture processing method, terminal and computer readable storage medium | |
WO2018107918A1 (en) | Method for interaction between avatars, terminals, and system | |
CN108259781B (en) | Video synthesis method, terminal and computer-readable storage medium | |
CN100512420C (en) | Method and apparatus for composing images during video communications | |
KR101170338B1 (en) | Method For Video Call And System thereof | |
CN107231470B (en) | Image processing method, mobile terminal and computer readable storage medium | |
US10142588B2 (en) | Information-processing device, communication system, storage medium, and communication method | |
CN107896303A (en) | A kind of image-pickup method, system and equipment and computer-readable recording medium | |
KR20120018479A (en) | Server and method for providing avatar using facial expression and gesture recognition | |
CN107786427B (en) | Information interaction method, terminal and computer readable storage medium | |
CN108600647A (en) | Shooting preview method, mobile terminal and storage medium | |
KR20210060196A (en) | Server, method and user device for providing avatar message service | |
KR20110020131A (en) | System and method for delivering feeling during video call | |
CN109150690B (en) | Interactive data processing method and device, computer equipment and storage medium | |
KR20110041065A (en) | System, server, terminal and method for delivering haptic contents during video call | |
KR101274471B1 (en) | System and method for emotion transmitting during video communication | |
KR101179465B1 (en) | Video call system and method for delivering feeling of far end talker | |
CN109039851B (en) | Interactive data processing method and device, computer equipment and storage medium | |
KR101337229B1 (en) | System, Haptic Server and Method for Providing of Emotional State of User In Video Telephony | |
KR102058190B1 (en) | Apparatus for providing character service in character service system | |
CN110113826B (en) | D2D device-to-device connection method and terminal device | |
KR101189052B1 (en) | System and method for delivering feeling during video call |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
N231 | Notification of change of applicant | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20151030 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20161102 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20170711 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20181106 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20191015 Year of fee payment: 8 |