KR20110020131A - System and method for delivering feeling during video call - Google Patents

System and method for delivering feeling during video call Download PDF

Info

Publication number
KR20110020131A
KR20110020131A KR1020090077866A KR20090077866A KR20110020131A KR 20110020131 A KR20110020131 A KR 20110020131A KR 1020090077866 A KR1020090077866 A KR 1020090077866A KR 20090077866 A KR20090077866 A KR 20090077866A KR 20110020131 A KR20110020131 A KR 20110020131A
Authority
KR
South Korea
Prior art keywords
avatar
terminal
facial expression
video call
counterpart
Prior art date
Application number
KR1020090077866A
Other languages
Korean (ko)
Inventor
홍상우
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020090077866A priority Critical patent/KR20110020131A/en
Publication of KR20110020131A publication Critical patent/KR20110020131A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/16Communication-related supplementary services, e.g. call-transfer or call-hold
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/20Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Abstract

PURPOSE: A system and a method for expressing emotion by recognizing other party's expression are provided to exactly deliver other party's emotion through a video communication. CONSTITUTION: An avatar providing server(30) receives a video data from other party's terminal which receives an avatar. The avatar providing serve monitors other party's expression in the received video data. If a specific expression is detected through the monitoring, the avatar providing server transmits an avatar execution code capable of operating the avatar to the mobile terminal.

Description

영상통화 중 상대방의 표정 인식을 통한 감정 전달 시스템 및 방법{System and method for delivering feeling during video call}System and method for delivering feeling during video call {a system and method for delivering feeling during video call}

본 발명은 영상통화기술에 관한 것으로, 더욱 상세하게는 영상통화 중 사용자 단말기에 표시되는 상대방의 표정 변화를 감지하고, 감지한 표정 변화에 따라 아바타를 동작시켜 상대방의 감정상태를 사용자에게 전달하는 영상통화 중 상대방의 표정 인식을 통한 감정 전달 시스템 및 방법에 관한 것이다.The present invention relates to a video call technology, and more particularly, to detect a change in the facial expression of the other party displayed on the user terminal during a video call, and to operate the avatar according to the detected facial expression change to transmit the emotional state of the other party to the user. The present invention relates to an emotional delivery system and method through facial expression recognition of a counterpart during a call.

음성통화 위주의 통화패턴에서 고속정보통신이 현실화되면서 통신단말기를 통한 영상통화기술이 주목을 받고 있다. 또한 영상통화가 가능한 통신단말기(이하, ‘영상통화 단말기’라 함)의 보급이 확대되면서 영상통화의 빈도수가 날로 증가하고 있는 추세이다.As high-speed information communication is realized in voice call-oriented call patterns, video call technology through communication terminals is attracting attention. In addition, as the spread of communication terminals capable of video calls (hereinafter referred to as 'video call terminals') is increasing, the frequency of video calls is increasing day by day.

영상통화 단말기는 영상통화 중 상대방의 영상을 화면에 표시하고, 상대방의 음성을 출력하기 때문에, 단순히 음성만으로 통화를 하는 것에 비해서 영상통화자 간에 서로의 감정상태를 쉽게 교환할 수 있다.Since the video call terminal displays the video of the other party on the screen and outputs the voice of the other party, the video call terminal can easily exchange each other's emotional states with each other as compared with simply making a voice call.

하지만 여전히 사용자는 영상통화 중 상대방의 감정상태를 표정이나 목소리만으로 전달받으므로, 상대방의 다양한 감정상태를 정확히 영상통화 단말기를 통하 여 사용자에게 전달하는 데는 한계가 있다. 그리고 현재의 영상통화는 단순히 상대방의 영상을 보면서 통화를 수행하는 데 그치고 있기 때문에, 영상통화자의 다양한 요구를 충족시키면서 영상통화자의 흥미를 유발하여 영상통화의 사용을 확대하는 데도 한계가 있다.However, since the user is still receiving the emotional state of the other party only through the facial expression or voice during the video call, there is a limit in accurately transmitting the various emotional states of the other party to the user through the video call terminal. In addition, since the current video call is merely to perform the call while watching the video of the other party, there is a limit to expanding the use of the video call by inducing interest of the video call while satisfying various needs of the video caller.

따라서 본 발명의 목적은 영상통화를 통하여 상대방의 다양한 감정상태를 정확히 사용자에게 전달할 수 있는 영상통화 중 상대방의 표정 인식을 통한 감정 전달 시스템 및 방법을 제공하는 데 있다.Accordingly, it is an object of the present invention to provide an emotion delivery system and method through facial expression recognition of a counterpart during a video call capable of accurately transmitting various emotion states of the counterpart to a user through a video call.

본 발명의 다른 목적은 영상통화자의 흥미를 유발시켜 영상통화의 사용을 확대할 수 있는 영상통화 중 상대방의 표정 인식을 통한 감정 전달 시스템 및 방법을 제공하는 데 있다.Another object of the present invention is to provide an emotion delivery system and method through facial expression recognition of a counterpart during a video call that can induce interest of the video caller and thereby expand the use of the video call.

상기 목적을 달성하기 위하여, 본 발명은 영상통화 중 상대방에 대응되는 아바타를 상대방의 영상과 함께 화면에 표시하고, 상대방의 표정을 감지하고, 감지한 표정에 따라 아바타를 동작시켜 상대방의 감정상태를 사용자에게 전달하는 영상통화 중 상대방의 표정 인식을 통한 감정 전달 시스템 및 방법을 제공한다.In order to achieve the above object, the present invention displays the avatar corresponding to the counterpart on the screen along with the video of the counterpart, detects the facial expression of the counterpart, operates the avatar according to the detected facial expression to control the emotional state of the counterpart. It provides a system and method for emotion delivery through the facial recognition of the other party during the video call to the user.

본 발명은 통신망 및 아바타 제공서버를 포함하여 구성되는 영상통화 중 상대방의 표정 인식을 통한 감정 전달 시스템을 제공한다. 상기 통신망은 발신 단말기와 착신 단말기 간의 영상통화를 제어한다. 상기 아바타 제공서버는 상기 통신망을 매개로 상기 발신 단말기와 착신 단말기 간에 영상통화가 개시되면, 상기 통신망을 통하여 상기 발신 단말기 또는 착신 단말기로 상대방에 대응하는 아바타를 전송하고, 상기 아바타를 수신한 단말기의 상대방 단말기로부터 영상데이터를 수신하고, 상기 수신한 영상데이터에서 상기 상대방이 특정 표정을 취하는 지를 모니터링 하고, 상기 모니터링 중 상기 특정 표정을 감지하면 상기 감지한 특정 표정에 대응되게 상기 아바타를 동작시킬 수 있는 아바타 실행코드를 상기 아바타를 수신한 단말기로 전송한다.The present invention provides a system for transmitting emotions through facial expression recognition of a counterpart during a video call including a communication network and an avatar providing server. The communication network controls a video call between the calling terminal and the called terminal. When the video call is initiated between the calling terminal and the called terminal through the communication network, the avatar providing server transmits an avatar corresponding to the other party to the calling terminal or the called terminal through the communication network, and receives the avatar. Receiving the image data from the other terminal, and monitors whether the other party takes a specific facial expression from the received image data, and if the specific facial expression is detected during the monitoring can operate the avatar corresponding to the detected specific facial expression The avatar execution code is transmitted to the terminal that receives the avatar.

본 발명은 또한, 송수신부 및 제어부를 포함하여 구성되는 영상통화 중 상대방의 표정 인식을 통한 감정 전달 시스템의 아바타 제공서버를 제공한다. 상기 송수신부는 통신망을 매개로 발신 단말기 또는 착신 단말기와 통신을 수행한다. 그리고 상기 제어부는 상기 통신망을 매개로 상기 발신 단말기와 착신 단말기 간에 영상통화가 개시되면, 상기 통신망을 통하여 상기 발신 단말기 또는 착신 단말기로 상대방에 대응하는 아바타를 전송하고, 상기 아바타를 수신한 단말기의 상대방 단말기로부터 영상데이터를 수신하고, 상기 수신한 영상데이터에서 상기 상대방이 특정 표정의 취하는 지를 모니터링하고, 상기 모니터링 중 상기 특정 표정을 감지하면 상기 감지한 특정 표정에 대응되게 상기 아바타를 동작시킬 수 있는 아바타 실행코드를 상기 아바타를 수신한 단말기로 전송한다.The present invention also provides an avatar providing server of the emotion delivery system through the facial recognition of the other party during a video call comprising a transceiver and a controller. The transceiver performs communication with a calling terminal or a called terminal via a communication network. When the video call is initiated between the calling terminal and the called terminal through the communication network, the controller transmits the avatar corresponding to the other party to the calling terminal or the called terminal through the communication network, and then receives the avatar. An avatar capable of receiving image data from a terminal, monitoring whether the counterpart takes a specific facial expression from the received image data, and if the specific facial expression is detected during the monitoring, operating the avatar corresponding to the detected specific facial expression The execution code is transmitted to the terminal that receives the avatar.

본 발명은 또한, 통신부, 카메라부, 표시부 및 단말제어부를 포함하여 구성되는 영상통화 단말기를 제공한다. 상기 통신부는 상대방 단말기와 영상통화를 수행한다. 상기 카메라부는 영상통화 중 사용자를 촬영한다. 상기 표시부는 상기 통신부를 통하여 수신한 상대방의 영상데이터를 표시한다. 그리고 상기 단말제어부는 상기 통신부를 통하여 상기 상대방 단말기와 영상통화를 개시하면, 상기 상대방에 대응하는 아바타와 상기 상대방 단말기로부터 수신한 영상데이터와 함께 상기 표시부에 표시하고, 상기 수신한 영상데이터에서 상기 상대방이 특정 표정을 취하는 지 를 모니터링하고, 상기 모니터링 중 상기 특정 표정을 감지하면 상기 감지한 특정 표정에 대응되게 상기 아바타를 동작시킨다.The present invention also provides a video call terminal including a communication unit, a camera unit, a display unit, and a terminal control unit. The communication unit performs a video call with the counterpart terminal. The camera unit photographs a user during a video call. The display unit displays the image data of the other party received through the communication unit. When the terminal controller initiates a video call with the counterpart terminal through the communication unit, the terminal controller displays the avatar along with the avatar corresponding to the counterpart and the image data received from the counterpart terminal, and displays the counterpart in the received image data. It monitors whether to take a specific facial expression, and if the specific facial expression is detected during the monitoring, the avatar is operated to correspond to the detected specific facial expression.

본 발명은 또한, 통신망을 매개로 발신 단말기와 착신 단말기 간에 영상 호 경로를 설정하여 영상통화가 개시되면, 아바타 제공서버가 상기 통신망을 통하여 상기 발신 단말기 또는 착신 단말기로 상대방에 대응하는 아바타를 전송하는 아바타 전송 단계, 상기 아바타 제공서버가 상기 통신망을 통하여 상기 아바타를 수신한 단말기의 상대방 단말기로부터 영상데이터를 수신하는 수신 단계, 상기 아바타 제공서버가 상기 수신한 영상데이터에서 상기 상대방이 특정 표정을 취하는 지를 모니터링하는 모니터링 단계, 상기 아바타 제공서버가 상기 모니터링 중 특정 표정을 감지하면 상기 감지한 특정 표정에 대응되게 상기 아바타를 동작시킬 수 있는 아바타 실행코드를 상기 아바타를 수신한 단말기로 전송하는 아바타 실행코드 전송 단계를 포함하는 영상통화 중 상대방의 표정 인식을 통한 감정 전달 방법을 제공한다.The present invention also establishes a video call path between a calling terminal and a called terminal through a communication network, and when a video call is initiated, the avatar providing server transmits an avatar corresponding to the other party to the calling terminal or the called terminal through the communication network. An avatar transmission step, the avatar providing server receiving image data from the counterpart terminal of the terminal that has received the avatar through the communication network, and whether the avatar providing server has a specific facial expression in the received image data; In the monitoring step of monitoring, when the avatar providing server detects a specific facial expression during the monitoring, an avatar execution code for transmitting an avatar execution code for operating the avatar corresponding to the detected specific facial expression to the terminal receiving the avatar Containing steps Of the call and provide the emotional delivery method through other's facial expression recognition.

본 발명은 또한, 사용자 단말기가 상대방 단말기와 영상 호 경로를 설정하여 영상통화를 개시하면, 상기 상대방에 대응하는 아바타와 상기 상대방 단말기로부터 수신한 영상데이터를 함께 표시하는 표시 단계, 상기 사용자 단말기가 상기 수신한 영상데이터에서 상기 상대방이 특정 표정을 취하는 지를 모니터링하는 모니터링 단계, 상기 모니터링 중 특정 표정을 감지하면, 상기 사용자가 단말기가 상기 감지한 특정 표정에 대응되게 상기 아바타를 동작시키는 동작 단계를 포함하는 영상통화 중 상대방의 표정 인식을 통한 감정 전달 방법을 제공한다.The present invention also provides a display step of displaying the video data received from the counterpart terminal and the avatar corresponding to the counterpart when the user terminal sets up a video call path with the counterpart terminal. A monitoring step of monitoring whether the counterpart takes a specific facial expression in the received image data, and if the specific facial expression is detected during the monitoring, operating the avatar in response to the specific facial expression detected by the terminal; Provides a method of transmitting emotions through facial expression recognition of a video call.

본 발명에 따르면, 사용자 단말기는 상대방 단말기와 영상 호 경로가 설정되면 화면에 아바타를 호출하여 수신한 상대방의 영상과 함께 표시하고, 화면에 표시된 상대방의 영상에서 상대방의 감정상태와 관련된 특정 표정을 감지하고, 감지한 특정 표정에 따라 아바타를 동작시키기 때문에, 아바타를 통하여 상대방의 감정상태를 사용자에게 효과적으로 전달할 수 있다.According to the present invention, when the video call path with the counterpart terminal is set, the user terminal calls the avatar on the screen and displays the received video along with the received counterpart's image, and detects a specific facial expression related to the emotional state of the counterpart from the counterpart's video displayed on the screen. Since the avatar is operated according to the detected specific facial expression, the emotional state of the other party can be effectively transmitted to the user through the avatar.

본 발명에 따른 감정 전달 시스템은 아바타 설정 모드에서 사용자 또는 상대방이 좋아하거나 관심 있는 분야의 아바타 또는 아바타 실행코드를 선택받아 설정할 수 있기 때문에, 영상통화자의 다양한 요구를 충족시키면서 영상통화자의 흥미를 유발하여 영상통화의 사용을 확대할 수 있다. 또한 사용자는 영상통화 단말기를 통하여 상대방의 표정 변화에 대응하는 아바타의 모습이나 행동 방식을 아바타 실행코드의 선택을 통하여 직접 설정할 수 있기 때문에, 사용자의 개성을 추구하면서 보다 흥미롭게 상대방과 영상통화를 사용할 수 있는 환경을 제공할 수 있다.Since the emotion delivery system according to the present invention can select and set an avatar or an avatar execution code of a field that the user or the other party likes or is interested in in the avatar setting mode, satisfying various needs of the video caller and causing interest of the video caller. Extend the use of video calls. In addition, the user can directly set the appearance or behavior of the avatar corresponding to the change of facial expression of the other party through the video call terminal by selecting the avatar execution code, so that the user can use the video call with the other party more interestingly while pursuing the user's personality. Can provide an environment that

이하, 첨부 도면을 참조하여 본 발명의 실시예를 보다 상세하게 설명하고자 한다.Hereinafter, with reference to the accompanying drawings will be described in detail an embodiment of the present invention.

여기서 '아바타'는 단말기 사용자의 감정상태를 대신하여 표현하는 그래픽 컨텐츠로서, 애니메이션 캐릭터, 동영상, 정지영상, UCC(User Created Contents), 이모티콘, 플래시(flash), 영상과 진동이 조합된 햅틱 컨텐츠 등을 포함한다.Here, 'Avatar' is a graphic content that represents the emotional state of the terminal user, such as animated characters, video, still images, UCC (User Created Contents), emoticons, flash, haptic content combined with video and vibration, etc. It includes.

본 발명의 제1 실시예에 따른 영상통화 중 상대방의 표정 인식을 통한 감정 전달 시스템(100)에 대해서 도 1 및 도 2를 참조하여 설명하면 다음과 같다. 여기서 도 1은 본 발명의 제1 실시예에 따른 영상통화 중 상대방의 표정 인식을 통한 감정 전달 시스템(100)을 보여주는 블록도이다. 도 2는 도 1의 발신 단말기(20)의 구성을 보여주는 블록도이다.Referring to FIGS. 1 and 2, the emotion delivery system 100 through the facial recognition of the other party during a video call according to the first embodiment of the present invention will be described. 1 is a block diagram illustrating an emotion transmission system 100 through facial expression recognition of a counterpart during a video call according to the first embodiment of the present invention. 2 is a block diagram showing the configuration of the originating terminal 20 of FIG.

제1 실시예에 따른 영상통화 중 감정 전달 시스템(100; 이하 '감정 전달 시스템'이라 함)은 영상통화 중 상대방이 취하는 특정 표정에 대응하는 아바타를 출력하여 사용자에게 상대방의 감정상태를 전달한다. 즉 영상통화 중 사용자가 취하는 표정은 사용자의 감정상태와 관련되기 때문에, 제1 실시예에 따른 감정 전달 시스템(100)은 영상통화 중 사용자가 특정 표정을 취하면 특정 표정에 대응하는 상대방의 감정상태를 표현할 수 있는 아바타를 사용자 단말기의 화면에 출력시킴으로써 사용자에게 상대방의 감정상태를 전달할 수 있다.The emotional delivery system 100 (hereinafter, referred to as an 'emotional delivery system') of a video call according to the first embodiment outputs an avatar corresponding to a specific facial expression taken by the other party during a video call and transmits the emotional state of the other party to the user. That is, since the facial expressions taken by the user during the video call are related to the emotional state of the user, the emotional delivery system 100 according to the first embodiment may provide an emotional state of the counterpart corresponding to the specific facial expression when the user takes a specific facial expression during the video call. By outputting an avatar capable of expressing on the screen of the user terminal can transmit the emotional state of the other party to the user.

제1 실시예에 따른 감정 전달 시스템(100)은 통신망(10)을 매개로 연결되어 영상통화를 수행하는 영상통화 단말기(20,40)를 포함하여 구성되며, 영상통화 단말기(20,40)는 발신 단말기(20) 및 착신 단말기(40)를 포함한다.Emotion delivery system 100 according to the first embodiment is configured to include a video call terminal (20, 40) for performing a video call connected via the communication network 10, the video call terminal (20, 40) Call originating terminal 20 and called terminal 40 are included.

통신망(10)은 발신 단말기(20)와 착신 단말기(40) 사이의 데이터 전송 및 정보 교환을 위한 일련의 데이터 송수신 동작을 수행한다. 통신망(10)은 IP를 통하여 대용량 데이터의 송수신 서비스 및 끊김없는 데이터 서비스를 제공하는 IP망으로, IP를 기반으로 서로 다른 망을 통합한 IP망 구조인 ALL-IP망일 수 있다. 또한 통신망(10)은 유선통신망, 이동통신망, WiBro(Wireless Broadband)망, HSDPA(High-Speed Downlink Packet Access)망, 위성통신망 중에 하나일 수 있다.The communication network 10 performs a series of data transmission and reception operations for data transmission and information exchange between the calling terminal 20 and the called terminal 40. The communication network 10 is an IP network providing a large-capacity data transmission / reception service and a seamless data service through IP, and may be an ALL-IP network that is an IP network structure integrating different networks based on IP. In addition, the communication network 10 may be one of a wired communication network, a mobile communication network, a wireless broadband (WiBro) network, a high-speed downlink packet access (HSDPA) network, and a satellite communication network.

통신망(10)은 호제어기(14)와 위치등록기(16)를 포함하여 구성된다.The communication network 10 includes a call controller 14 and a location register 16.

호제어기(14)는 호 및 세션처리에 관련된 기능을 담당하는 부분으로서, CSCF(Call State Control Function) 또는 MSC(Mobile Switching Center) 중에 하나일 수 있다. 특히 CSCF로 구현된 호제어기(14)는 인입호에 대한 게이트웨이로서의 기능, 호 제어 기능, SPD(Serving Profile Database) 기능, 주소 처리 기능 등을 수행한다.The call controller 14 is a part in charge of functions related to call and session processing, and may be one of a call state control function (CSCF) or a mobile switching center (MSC). In particular, the call controller 14 implemented with CSCF performs a function as a gateway for incoming calls, a call control function, a SPD (Serving Profile Database) function, an address processing function, and the like.

위치등록기(16)는 가입자의 마스터 데이터베이스로서, 가입자와 관련된 서비스의 마스터 목록을 유지하거나 가입자의 위치정보에 대한 관리를 수행함으로써 엑세스 수단을 추적하는 역할을 담당한다. 위치등록기(16)는 가입자가 가입한 부가서비스 가입정보를 저장한다. 위치등록기(16)로는 HLR(Home Location Register) 또는 All-IP망에서 가입자 정보 관리를 수행하는 HSS(Home Subscriber Server) 중에 하나일 수 있다.The location register 16 is a master database of subscribers, and is responsible for tracking access means by maintaining a master list of services related to subscribers or performing management of subscriber location information. The location register 16 stores additional service subscription information subscribed to by the subscriber. The location register 16 may be one of a home location register (HLR) or a home subscriber server (HSS) that manages subscriber information in an All-IP network.

그리고 발신 단말기(20)와 착신 단말기(40)는 통신망(10)을 매개로 서로 간에 영상통화를 수행한다. 영상통화 단말기(20,40)는 상대방 단말기와 영상통화를 개시하면, 상대방 단말기로부터 수신한 영상데이터와 상대방이 취하는 표정에 따라 동작하는 아바타를 화면에 표시한다. 이때 영상통화 단말기(20,40)는 통신망(10)을 통하여 영상통화가 가능한 유무선 통신단말기로서, 이동통신단말기, 유선통신단말기, 인터넷전화기 등을 포함한다.In addition, the calling terminal 20 and the called terminal 40 perform a video call with each other through the communication network 10. When the video call terminal 20 or 40 initiates a video call with the counterpart terminal, the video call terminal 20 or 40 displays an avatar which operates according to the video data received from the counterpart terminal and the facial expression taken by the counterpart. In this case, the video call terminals 20 and 40 are wired / wireless communication terminals capable of making video calls through the communication network 10, and include a mobile communication terminal, a wired communication terminal, and an internet telephone.

이와 같이 영상통화 단말기(20,40)는 상대방 단말기로부터 수신한 상대방 영상과 함께, 상대방이 취하는 표정에 따라 동작하는 아바타를 화면에 표시하기 때문 에, 사용자는 아바타를 통하여 상대방의 감정상태를 알 수 있다.As such, the video call terminals 20 and 40 display an avatar operating on the screen along with the other party's image received from the other terminal, so that the user can know the emotional state of the other party through the avatar. have.

제1 실시예에 따른 감정 전달 시스템(100)의 발신 단말기(20) 및 착신 단말기(40)는 동일한 구성을 갖기 때문에, 도 2에 도시된 발신 단말기(20)의 구성을 중심으로 설명하면 다음과 같다. 발신 단말기(20)는 통신부(21), 입력부(22), 저장부(23), 카메라부(24), 출력부(25,26) 및 단말제어부(27)를 포함한다.Since the calling terminal 20 and the called terminal 40 of the emotion transmitting system 100 according to the first embodiment have the same configuration, the following description will be given with reference to the configuration of the calling terminal 20 shown in FIG. same. The calling terminal 20 includes a communication unit 21, an input unit 22, a storage unit 23, a camera unit 24, an output unit 25 and 26, and a terminal control unit 27.

통신부(21)는 통신망(10)을 매개로 착신 단말기(40)와의 영상통화를 위한 데이터를 송수신한다. 통신부(21)는 단말제어부(27)의 제어에 따라 착신 단말기(40)로부터 상대방의 영상데이터를 수신하고, 카메라부(24)로 촬영된 사용자의 영상데이터를 착신 단말기(40)로 전송한다.The communication unit 21 transmits and receives data for a video call with the destination terminal 40 through the communication network 10. The communication unit 21 receives the video data of the other party from the called terminal 40 under the control of the terminal controller 27, and transmits the video data of the user photographed by the camera unit 24 to the called terminal 40.

입력부(22)는 발신 단말기(20)의 조작을 위한 복수의 키를 제공하며, 사용자의 키선택에 따른 선택 신호를 발생하여 단말제어부(27)에 전달한다. 사용자는 입력부(22)를 통해 영상통화 요청 신호를 입력할 수 있다. 입력부(22)로는 키패드, 터치패드와 같은 포인팅 장치, 터치스크린(touch screen) 등의 입력장치가 사용될 수 있다.The input unit 22 provides a plurality of keys for the operation of the calling terminal 20, and generates a selection signal according to a user's key selection and transmits the selection signal to the terminal controller 27. The user may input a video call request signal through the input unit 22. The input unit 22 may be a keypad, a pointing device such as a touch pad, or an input device such as a touch screen.

저장부(23)는 발신 단말기(20)의 동작 제어시 필요한 프로그램과, 그 프로그램 수행 중에 발생되는 데이터를 저장하며, 하나 이상의 휘발성 메모리 소자와 비휘발성 메모리 소자로 이루어진다. 저장부(23)는 영상통화 중 상대방이 취하는 특정 표정에 따라 아바타를 동작시키는 실행프로그램을 저장한다. 저장부(23)는 상대방에 대응되게 설정한 아바타와, 아바타를 동작시키는 아바타 실행코드를 저장한다. 이때 저장부(23)는 상대방의 단말정보에 매칭하여 아바타를 저장할 수 있다. 아바타는 사용자의 선택 신호에 따라 상대방의 단말정보에 매칭하여 설정된 아바타와, 디폴트로 설정된 일반 아바타를 포함한다. 디폴트로 설정된 일반 아바타는 사용자가 설정한 상대방 이외의 사람과 영상통화를 수행할 경우에 사용될 수 있다.The storage unit 23 stores a program necessary for controlling the operation of the calling terminal 20 and data generated during the execution of the program, and includes one or more volatile memory devices and nonvolatile memory devices. The storage unit 23 stores an execution program for operating the avatar according to a specific facial expression taken by the counterpart during the video call. The storage unit 23 stores the avatar set to correspond to the counterpart and the avatar execution code for operating the avatar. In this case, the storage unit 23 may store the avatar by matching the terminal information of the counterpart. The avatar includes an avatar set according to the terminal information of the counterpart according to the user's selection signal and a general avatar set by default. The general avatar set as a default may be used when conducting a video call with a person other than the user.

이때 특정 표정은 상대방이 취하는 표정 중 사용자의 감정상태와 관련된 표정이다. 예컨대 특정 표정은 웃는 표정, 우는 표정, 생각하는 표정, 싫은 표정, 좋아하는 표정, 놀란 표정 등을 포함할 수 있다. 아바타 실행코드는 상대방이 취하는 특정 표정에 매핑된다. 즉 아바타 실행코드는 전술한 특정 표정에 대응하는 감정을 행동으로 표현하도록 아바타를 동작시킨다. 저장부(23)는 특정 표정과 아바타 실행코드를 매칭하여 매핑 테이블로 저장할 수 있다. 예컨대 좋아하는 표정에 매칭된 아바타 실행코드는 웃으면서 펄쩍펄쩍 뛰는 행동을 하도록 아바타를 동작시킨다.In this case, the specific facial expression is an expression related to the emotional state of the user among the facial expressions taken by the counterpart. For example, the specific facial expression may include a smiling facial expression, a crying facial expression, a thinking facial expression, a disgusting facial expression, a favorite facial expression, a surprised facial expression, and the like. The avatar executable code is mapped to a specific facial expression taken by the opponent. That is, the avatar execution code operates the avatar to express the emotion corresponding to the specific facial expression described above as an action. The storage unit 23 may match the specific expression and the avatar execution code and store the mapping table as a mapping table. For example, an avatar executable code that matches a favorite facial expression may cause the avatar to jump and smile.

또한 아바타 실행코드는 상대방이 취하는 표정에 대응되게 아바타의 표정과 행동을 변형시키는 실행코드일 수 있다. 예컨대 상대방의 웃는 표정을 취하면, 아바타 또한 상대방의 표정과 동일하게 웃는 표정을 취한다.In addition, the avatar executable code may be executable code that modifies the facial expression and behavior of the avatar to correspond to the facial expression taken by the counterpart. For example, when the smiling face of the other person is taken, the avatar also takes the same smiling face as the other face.

카메라부(24)는 통신부(21)를 통해 전송하기 위한 사용자(발신자)의 영상데이터를 획득한다. 즉 카메라부(24)는 입력부(22)를 통한 영상통화의 승낙에 따라 사용자의 영상을 촬영하여 영상데이터를 획득한다. 이때 카메라부(24)는 이미지 센서, 신호처리부 및 영상처리부를 포함하여 구성될 수 있다. 이미지 센서는 촬영한 영상의 광신호를 아날로그 신호로 변환한다. 신호처리부는 아날로그 신호를 디지털 신호로 변환한다. 그리고 영상처리부는 신호처리부를 통해 입력되는 영상신호를 처리하여 영상데이터를 획득하며, 획득된 영상데이터를 통신부(21)나 표시부(25)를 통해 출력하거나 저장부(23)에 저장한다. 또한 영상처리부는 통신부(21)를 통해 입력되는 상대방(착신자)의 영상데이터를 처리하여 표시부(25)를 통해 출력하거나 저장부(23)에 저장한다.The camera unit 24 acquires image data of a user (sender) for transmission through the communication unit 21. That is, the camera unit 24 acquires image data by capturing the image of the user according to the acceptance of the video call through the input unit 22. In this case, the camera unit 24 may include an image sensor, a signal processor, and an image processor. The image sensor converts the optical signal of the captured image into an analog signal. The signal processor converts an analog signal into a digital signal. The image processing unit processes the image signal input through the signal processing unit to obtain image data, and outputs the obtained image data through the communication unit 21 or the display unit 25 or stores it in the storage unit 23. In addition, the image processing unit processes the image data of the other party (recipient) input through the communication unit 21 to output through the display unit 25 or to store in the storage unit (23).

출력부(25,26)는 표시부(25)와 음원처리부(26)를 포함한다. 출력부(25,26)는 진동을 발생시키는 진동발생부를 더 포함할 수 있다.The output units 25 and 26 include a display unit 25 and a sound source processing unit 26. The output units 25 and 26 may further include a vibration generator for generating vibration.

표시부(25)는 발신 단말기(20)에서 실행되는 각종 기능 메뉴를 비롯하여 저장부(23)에 저장된 정보를 표시한다. 표시부(25)는 단말제어부(27)의 제어에 따라 상대방의 영상 또는 아바타를 표시한다. 표시부(25)로는 LCD(Liquid Crystal Display)나 터치 스크린이 사용될 수 있다. 터치 스크린은 표시 장치와 입력 장치로서의 역할을 동시에 수행한다.The display unit 25 displays information stored in the storage unit 23 including various function menus executed in the calling terminal 20. The display unit 25 displays an image or an avatar of the other party under the control of the terminal controller 27. As the display unit 25, a liquid crystal display (LCD) or a touch screen may be used. The touch screen simultaneously serves as a display device and an input device.

음원처리부(26)는 단말제어부(27)의 제어에 따라 마이크(MIC)로 입력되는 음성을 디지털화하여 음성정보를 획득하고, 통신부(21)를 통해 수신된 음성정보를 복조하여 스피커(SPK)를 통해 출력한다.The sound source processor 26 digitizes the voice input to the microphone MIC under the control of the terminal controller 27 to obtain voice information, and demodulates the voice information received through the communication unit 21 to generate a speaker SPK. Output through

그리고 단말제어부(27)는 발신 단말기(20)의 전반적인 제어 동작을 수행하는 마이크로프로세서(microprocessor)이다. 특히 단말제어부(27)는 영상통화 중 상대방의 표정 인식을 통한 아바타 출력을 제어한다.In addition, the terminal controller 27 is a microprocessor that performs overall control operations of the calling terminal 20. In particular, the terminal controller 27 controls the avatar output by recognizing the facial expression of the other party during the video call.

단말제어부(27)는 아바타 설정 모드에서 상대방에 대응하는 아바타와, 설정된 아바타를 동작시키는 아바타 실행코드를 설정할 수 있다. 아바타 및 아바타 실행코드는 일반, 날씨, 스포츠(골프, 농구, 야구 등) 등 사용자의 관심분야나 취미 등에 따라 다양하게 분류되어 제공될 수 있다. 사용자는 아바타 설정 모드에서 자 신 또는 상대방이 좋아하거나 관심 있는 분야의 아바타 또는 아바타 실행코드를 선택하여 설정할 수 있다.The terminal controller 27 may set an avatar corresponding to the other party and an avatar execution code for operating the set avatar in the avatar setting mode. The avatar and the avatar execution code may be variously classified and provided according to a user's interests or hobbies such as general, weather, sports (golf, basketball, baseball, etc.). In the avatar setting mode, the user may select and set an avatar or an avatar execution code of a field that the user or the counterpart likes or is interested in.

예컨대 상대방의 특정 표정에 따라 매핑된 아바타 실행코드는 아바타를 표1과 같이 동작시킬 수 있다. 이때 특정 표정은 웃는 표정, 우는 표정, 놀란 표정으로 한정하여 설명하였지만 이에 한정되는 것은 아니다. 또한 각각의 특정 표정에 따른 아바타의 동작 또한 이에 한정되는 것은 아니다.For example, the avatar execution code mapped according to the specific expression of the counterpart may operate the avatar as shown in Table 1. In this case, the specific expression has been described as being limited to a smiling face, a crying face, or a surprised face, but is not limited thereto. In addition, the operation of the avatar according to each specific facial expression is not limited thereto.

웃는 표정Smiley expression 우는 표정Crying expression 놀란 표정A surprised look 일반Normal 아바타가 웃음Avatar laughs 아바타가 울음을
터트림
Avatar crying
Turm
아바타가 눈을
크게 뜸
Avatar eyes
Large moxibustion
날씨weather 아바타가 화창한
날씨에 산책함
Avatar is sunny
Strolling in the weather
아바타가 비를 맞음Avatar rained 아바타 머리 위로
번개가 침
Avatar head up
Lightning strikes
골프golf 아바타가 퍼팅한 공이
홀컵에 들어가 좋아함
The ball put by the avatar
I like the hole cup
아바타의 티샷이 물에
빠져 울음을 터트림
Avatar tee shot in water
I burst out and cry
티샷이 홀인원되어
아바타가 깜짝 놀람
The tee shot is hole-in-one
Avatar is surprised
농구basketball 아바타가 삼점 슛에
성공함
Avatar is on three point shot
Succeeded
아바타가 공을
빼앗김
Avatar hit the ball
Deprived
아바타의 슛이
블락슛을 당함
Avatar shot
Blocked

한편 별도로 아바타 실행코드를 설정하지 않는 경우, 단말제어부(27)는 디폴트로 설정된 아바타 실행코드를 사용할 수 있다. 예컨대 일반 항목이 디폴트로 설정될 수 있다.Meanwhile, if the avatar execution code is not separately set, the terminal controller 27 may use the avatar execution code set as a default. For example, a general item may be set as a default.

단말제어부(27)는 착신 단말기(40)와 영상통화를 개시하면, 착신 단말기(40)로부터 수신한 영상데이터와 상대방에 대응하는 아바타를 표시부(25)에 표시한다. 단말제어부(27)는 수신한 영상데이터에서 상대방이 특정 표정을 취하는 지를 모니터링한다. 그리고 단말제어부(27)는 모니터링 중 특정 표정을 감지하면, 특정 표정에 대응되게 아바타를 동작시킨다.When the terminal controller 27 starts a video call with the called terminal 40, the terminal controller 27 displays the image data received from the called terminal 40 and the avatar corresponding to the counterpart on the display unit 25. The terminal controller 27 monitors whether the counterpart takes a specific facial expression from the received image data. When the terminal controller 27 detects a specific facial expression during monitoring, the terminal controller 27 operates the avatar corresponding to the specific facial expression.

이때 단말제어부(27)는 아바타를 저장부(23)에서 호출하거나 발신 단말기(40)로부터 수신하여 표시부(25)에 표시한다. 착신 단말기(40)와 영상통화를 개시하면, 단말제어부(27)는 상대방에 대응하는 아바타가 저장부(23)에 설정되어 있는 지를 확인한다. 확인 결과 설정되어 있으면, 단말제어부(40)는 설정된 아바타를 호출한다. 확인 결과 미설정되어 있으면, 단말제어부(27)는 저장부(23)에 저장된 일반 아바타를 호출하거나 발신 단말기(40)로 아바타를 요청하여 수신할 수 있다. 그리고 단말제어부(27)는 호출하거나 수신한 아바타를 표시부(23)에 표시한다.At this time, the terminal controller 27 calls the avatar from the storage unit 23 or receives it from the calling terminal 40 and displays it on the display unit 25. Upon initiating a video call with the called terminal 40, the terminal controller 27 checks whether an avatar corresponding to the other party is set in the storage 23. If the check result is set, the terminal controller 40 calls the set avatar. If the check result is not set, the terminal controller 27 may call the general avatar stored in the storage 23 or request the avatar from the calling terminal 40 to receive the avatar. The terminal controller 27 displays the called or received avatar on the display unit 23.

단말제어부(27)는 수신한 영상데이터에서 상대방의 표정을 다음과 같이 모니터링할 수 있다. 즉 단말제어부(27)는 수신한 영상데이터를 분석하여 상대방의 얼굴 영상을 추출하고, 추출한 얼굴 영상에서 관심영역을 추출한다. 그리고 단말제어부(27)는 추출한 관심영역의 위치 변화를 추적하여 상대방의 표정을 감지한다. 이때 단말제어부(27)는 감지한 표정이 저장부(23)에 기 저장된 특정 표정에 포함되는 지를 판단한다. 단말제어부(27)는 수신한 영상의 배경에서 상대방(객체) 영상을 분리하기 위해서, 예컨대 PCA(principal component analysis)를 통해 adaboost로 객체의 형태를 추출할 수 있다. 단말제어부(27)는 추적한 관심영역에 따른 상대방의 연속적 또는 불연속적인 표정을 감지한다. 여기서 adaboost는 객체의 형태를 추출하기 위한 학습 알고리듬으로, Yoav Freund and Robert E. Schapire 에 의한 "A decision-theoretic generalization of on-line learning and an application to boosting", In Computational Learning Theory: Eurocolt '95, pp. 23-37, Springer-Verlag, 1995에 자세히 기재되어 있다.The terminal controller 27 may monitor the facial expression of the other party in the received image data as follows. In other words, the terminal controller 27 analyzes the received image data, extracts a face image of the other party, and extracts a region of interest from the extracted face image. The terminal controller 27 detects the facial expression of the other party by tracking the position change of the extracted ROI. In this case, the terminal controller 27 determines whether the detected facial expression is included in a specific facial expression stored in the storage 23. The terminal controller 27 may extract the shape of the object as adaboost through, for example, a principal component analysis (PCA) in order to separate the counterpart (object) image from the background of the received image. The terminal controller 27 detects a continuous or discontinuous facial expression of the other party according to the tracked ROI. Here, adaboost is a learning algorithm for extracting the shape of an object. "A decision-theoretic generalization of on-line learning and an application to boosting" by Yoav Freund and Robert E. Schapire, In Computational Learning Theory: Eurocolt '95, pp. 23-37, Springer-Verlag, 1995.

관심영역은 영상통화 중인 상대방의 감정상태를 사용자에게 전달할 수 있는 얼굴구성요소로서, 예컨대 눈, 눈썹, 미간, 코 및 입 중에 적어도 하나를 포함한다. 단말제어부(27)는 다음과 같이 관심영역을 추출하여 상대방의 표정을 감지할 수 있다. 즉 단말제어부(27)는 수신한 영상데이터에서 상대방의 얼굴 영상을 추출한다. 예컨대 얼굴 영상은 PCA, FDA(Fisher Discriminarnt Analysis), ICA(Independent Component Analysis) 중에 하나를 이용하여 추출할 수 있다. 단말제어부(27)는 추출한 얼굴 영상에서 얼굴구성요소들을 추출한다. 예컨대 얼굴구성요소들은 adaboost 또는 SVM(Support Vector Machine)를 이용하여 추출한다. 그리고 단말제어부(27)는 추출한 얼굴구성요소들의 위치변화로부터 상대방의 얼굴 표정 변화를 감지할 수 있다.The ROI is a face component that can convey the emotional state of the counterpart during a video call to the user, and includes at least one of an eye, an eyebrow, a brow, a nose, and a mouth. The terminal controller 27 can detect the expression of the other party by extracting the region of interest as follows. That is, the terminal controller 27 extracts the other party's face image from the received image data. For example, the face image may be extracted using one of PCA, Fisher Discriminarnt Analysis (FDA), and Independent Component Analysis (ICA). The terminal controller 27 extracts face components from the extracted face image. For example, facial components are extracted using adaboost or SVM (Support Vector Machine). In addition, the terminal controller 27 can detect a change in the facial expression of the other party from the position change of the extracted facial components.

단말제어부(27)는 모니터링 중 특정 표정을 감지하면, 감지한 특정 표정에 대응하는 아바타 실행코드를 저장부(23)에서 추출한다. 그리고 단말제어부(27)는 추출한 아바타 실행코드에 따라 아바타를 동작시켜 상대방의 감정 상태를 표시할 수 있다. 이때 단말제어부(27)는 추적한 관심영역과 특정 표정의 관심영역의 위치값을 비교하여 일치하는 특정 표정이 있는 지를 모니터링한다.When the terminal controller 27 detects a specific facial expression during monitoring, the terminal controller 27 extracts an avatar execution code corresponding to the detected specific facial expression from the storage 23. In addition, the terminal controller 27 may display the emotional state of the counterpart by operating the avatar according to the extracted avatar execution code. At this time, the terminal controller 27 compares the tracked region of interest with the position value of the region of interest of the specific facial expression and monitors whether there is a specific facial expression that matches.

한편 단말제어부(27)는 추적한 관심영역에 대응되게 아바타의 관심영역을 변형시킬 수 있는 아바타 실행코드를 추출하고, 추출한 아바타 실행코드에 따라 아바타를 동작시켜 상대방의 감정 상태를 표시할 수 있다.Meanwhile, the terminal controller 27 may extract an avatar execution code capable of modifying the avatar's ROI corresponding to the tracked ROI, and display the emotional state of the other party by operating the avatar according to the extracted avatar execution code.

그리고 단말제어부(27)는 상대방 영상과 아바타를 표시부(25)에 표시할 때, 상대방 영상에 중첩하여 표시하거나 PIP(Picture In Picture) 형태로 표시할 수 있다. 예컨대 단말제어부(27)가 모니터링 중 상대방의 좋아하는 표정을 감지하면, 좋아하는 표정에 매칭된 아바타 실행코드를 저장부(23)에 추출한다. 단말제어부(27)는 아바타 실행코드에 따라 웃으면서 펄쩍펄쩍 뛰는 행동을 하도록 아바타를 동작시킨다.In addition, when the terminal controller 27 displays the counterpart image and the avatar on the display unit 25, the terminal controller 27 may overlap the counterpart image or display the picture in a PIP (Picture In Picture) form. For example, when the terminal controller 27 detects a favorite facial expression of the other party during monitoring, the terminal controller 27 extracts the avatar execution code matching the favorite facial expression to the storage 23. The terminal control unit 27 operates the avatar to make a jumping action while laughing according to the avatar execution code.

이와 같이 제1 실시예에 따른 감정 전달 시스템(100)의 영상통화 단말기(20,40)는 상대방 단말기와 영상 호 경로가 설정되면 화면에 아바타를 호출하여 상대방 영상과 함께 표시한 후, 상대방의 감정상태와 관련된 특정 표정을 취하는 지를 모니터링하고, 모니터링 중 감지한 특정 표정에 따라 아바타를 동작시키기 때문에, 아바타를 통하여 상대방의 감정상태를 사용자에게 효과적으로 전달할 수 있다.As described above, when the video call terminals 20 and 40 of the emotion delivery system 100 according to the first embodiment are set, a video call path is displayed on the screen by displaying an avatar along with the other party's image and then displaying the other party's emotion. Since it monitors whether a particular facial expression related to the state is taken and the avatar is operated according to the specific facial expression detected during monitoring, the emotional state of the other party can be effectively transmitted to the user through the avatar.

제1 실시예에 따른 감정 전달 시스템(100)의 감정 전달 방법에 대해서 도 1 내지 도 5를 참조하여 설명하면 다음과 같다. 여기서 도 3은 본 발명의 제1 실시예에 따른 영상통화 중 상대방의 표정 인식을 통한 감정 전달 방법에 따른 흐름도이다. 도 4는 도 3의 아바타 표시 단계에 따른 상세 흐름도이다. 그리고 도 5는 도 3의 표정 변화 감지 단계에 따른 상세 흐름도이다.The emotion delivery method of the emotion delivery system 100 according to the first embodiment will be described with reference to FIGS. 1 to 5 as follows. 3 is a flowchart illustrating a method of transmitting emotions through facial expression recognition of a counterpart during a video call according to the first embodiment of the present invention. 4 is a detailed flowchart of the avatar display step of FIG. 3. 5 is a detailed flowchart according to the facial expression change detection step of FIG.

먼저 S51단계에서 발신 단말기(20)가 영상 호를 발신하면, S53단계에서 통신망(10)은 이를 수신하여 착신 단말기(40)로 영상 호 착신을 요청한다. 즉, 발신 단말기(20)가 영상 호를 발신하면, 호제어기(14)는 위치등록기(16)로 발신 및 착신 단말기(20,40)의 가입자 정보(위치 정보 및 부가 서비스 정보)를 요청한다. 호제어기(14)는 수신한 가입자 정보를 토대로 라우팅 정보를 획득한다. 호제어기(14)는 획득한 라우팅 정보를 이용하여 착신 단말기(40)로 영상 호 착신을 요청한다.First, when the calling terminal 20 transmits a video call in step S51, the communication network 10 receives the request in step S53 and requests a video call to the called terminal 40. That is, when the calling terminal 20 sends a video call, the call controller 14 requests the subscriber information (location information and additional service information) of the calling and destination terminals 20 and 40 to the location register 16. The call controller 14 obtains routing information based on the received subscriber information. The call controller 14 requests video call reception to the called terminal 40 using the obtained routing information.

한편 S51단계를 수행하기 전에, 발신 단말기(20)는 입력부(22)를 통한 사용자의 선택 신호에 따라 아바타 설정 모드에서 상대방에 대응하는 아바타와, 설정된 아바타를 동작시키는 아바타 실행코드를 설정할 수 있다. 사용자는 아바타 설정 모드에서 자신 또는 상대방이 좋아하거나 관심 있는 분야의 아바타 또는 아바타 실행코드를 선택하여 설정할 수 있다.Meanwhile, before performing step S51, the calling terminal 20 may set an avatar corresponding to the other party and an avatar execution code for operating the set avatar in the avatar setting mode according to a user's selection signal through the input unit 22. In the avatar setting mode, the user may select and set an avatar or an avatar execution code of a field that the user or the counterpart likes or is interested in.

다음으로 S55단계에서 착신 단말기(40)가 영상 호에 대한 수락을 통신망(10)으로 전송하면, S57단계에서 통신망(10)은 발신 단말기(20)와 착신 단말기(40) 간에 영상통화를 위한 영상 호 경로를 설정한다. 즉 호제어기(14)는 착신 단말기(40)를 페이징하여 착신을 요청하고, 착신 단말기(40)가 착신 요청에 대하여 호를 수락하면, 호제어기(14)는 발신 단말기(20)와 착신 단말기(40) 간에 영상 호 경로를 설정한다.Next, when the called terminal 40 transmits the acceptance of the video call to the communication network 10 in step S55, the communication network 10 transmits the video for the video call between the calling terminal 20 and the called terminal 40 in step S57. Set the call path. That is, the call controller 14 requests the incoming call by paging the called terminal 40, and when the called terminal 40 accepts the call for the incoming request, the call controller 14 calls the calling terminal 20 and the called terminal ( 40) to set the video call path.

이와 같이 발신 단말기(20)와 착신 단말기(40) 간에 영상 호 경로가 설정된 후, S59단계에서 설정된 영상 호 경로를 통해 발신 단말기(20)와 착신 단말기(40)는 영상통화를 수행하게 된다. 즉 발신 단말기(20)와 착신 단말기(40)는 서로 자신의 영상이 포함된 영상데이터를 교환하면서 음성통화를 수행한다.As such, after the video call path is set between the calling terminal 20 and the called terminal 40, the calling terminal 20 and the called terminal 40 perform a video call through the video call path set in step S59. That is, the calling terminal 20 and the called terminal 40 perform a voice call while exchanging video data including their own video with each other.

S59단계에 따라 영상통화가 개시되면, S70단계에서 발신 단말기(20)는 착신 단말기(40)의 사용자(상대방)에 대응하는 아바타를 표시부(25)에 표시한다. S70단계를 도 4를 참조하여 구체적으로 설명하면 다음과 같다. 먼저 S71단계에서 발신 단말기(20)는 상대방에 대응되게 아바타가 저장부(23)에 설정되어 있는 지를 확인한다. S71단계의 확인 결과 설정되어 있으면, S72단계에서 발신 단말기(20)는 설정된 아바타를 저장부(23)에서 호출한다.When the video call is started in step S59, the calling terminal 20 displays the avatar corresponding to the user (the other party) of the called terminal 40 on the display unit 25 in step S70. The step S70 will be described in detail with reference to FIG. 4 as follows. First, in step S71, the calling terminal 20 checks whether the avatar is set in the storage unit 23 corresponding to the counterpart. If the result of the check in step S71 is set, the calling terminal 20 calls the set avatar in the storage unit 23 in step S72.

S71단계의 확인 결과 설정되어 있지 않으면, S73단계에서 발신 단말기(20)는 아바타 요청 신호가 입력되는 지의 여부를 다시 판단한다. S73단계의 판단 결과 입력되지 않은 경우, S74단계에서 발신 단말기(20)는 저장부(23)에 저장된 일반 아바타를 호출한다. S73단계의 판단 결과 입력된 경우, S75단계에서 발신 단말기(20)는 착신 단말기(40)로 아바타를 요청하여 수신한다. 이때 착신 단말기(40)에서 전송하는 아바타는 현재 설정된 영상 호 경로를 통하여 발신 단말기(20)로 전송되거나, 별도의 SMS(short Message Service) 또는 SMS(Multimedia Message Service)와 같은 메시지 서비스 채널을 통하여 발신 단말기(20)로 전송될 수 있다.If the check result of step S71 is not set, in step S73 the calling terminal 20 determines again whether the avatar request signal is input. If it is not input as a result of the determination in step S73, the calling terminal 20 calls the general avatar stored in the storage unit 23 in step S74. When the determination result of step S73 is input, in step S75, the calling terminal 20 requests and receives an avatar from the called terminal 40. In this case, the avatar transmitted from the called terminal 40 is transmitted to the calling terminal 20 through the currently set video call path, or is sent through a message service channel such as a separate short message service (SMS) or multimedia message service (SMS). It may be transmitted to the terminal 20.

그리고 S76단계에서 발신 단말기(20)는 호출하거나 수신한 아바타와, 착신 단말기(40)로부터 수신한 영상데이터를 함께 표시부(23)에 표시한다. 이때 발신 단말기(20)는 영상데이터와 아바타를 표시부(25)에 표시할 때, 영상데이터와 아바타를 중첩하여 표시하거나 PIP 형태로 표시할 수 있다.In operation S76, the calling terminal 20 displays the called or received avatar and the image data received from the called terminal 40 on the display unit 23. In this case, when the calling terminal 20 displays the image data and the avatar on the display unit 25, the calling terminal 20 may display the image data and the avatar in a superimposed manner or in a PIP form.

한편 제1 실시예에서는 S71단계의 확인 결과 설정되어 있지 않으면, 사용자 입력에 따라 S73단계 내지 S75단계를 수행하는 예를 개시하였지만 이에 한정되는 것은 아니다. 예컨대 S71단계의 확인 결과 설정되어 있지 않으면, S74단계에서 발신 단말기(20)는 저장부(23)에 저장된 일반 아바타를 호출할 수 있다. 또는 S71단계의 확인 결과 설정되어 있지 않으면, S75단계에서 발신 단말기(20)는 착신 단말기(40)로 아바타를 요청하여 수신할 수 있다.Meanwhile, in the first exemplary embodiment, an example in which steps S73 to S75 are performed according to a user input unless the check result of step S71 is set is not limited thereto. For example, if the check result of step S71 is not set, the calling terminal 20 may call a general avatar stored in the storage unit 23 in step S74. Alternatively, if the check result of step S71 is not set, the calling terminal 20 may request and receive an avatar from the called terminal 40 in step S75.

다음으로 S80단계에서 발신 단말기(20)는 수신한 영상에서 상대방이 특정 표정을 취하는 지를 모니터링한다.. S80단계를 도 5를 참조하여 구체적으로 설명하면 다음과 같다. 먼저 S81단계에서 발신 단말기(20)는 수신한 영상데이터에서 상대방의 얼굴 영상을 추출한다. 다음으로 S83단계에서 발신 단말기(20)는 추출한 얼굴 영상에서 관심영역을 추출한다. 그리고 S85단계에서 발신 단말기(20)는 추출한 관심영역의 변화를 추적하여 상대방의 표정을 감지한다. 예컨대 수신한 영상데이터는 복수의 프레임 영상 데이터를 포함하며, 일정 시간에 수신되는 영상데이터에 포함된 복수의 프레임 영상 데이터에서 일정 수의 영상데이터를 캡쳐하고, 캡쳐한 영상데이터에서 상대방 영상을 추출한 후 얼굴 영상을 추출할 수 있다. 즉 단말제어부(27)는 수신한 영상데이터에서 상대방의 얼굴 영상을 PCA, FDA, ICA 중에 하나를 이용하여 추출할 수 있다. 단말제어부(27)는 추출한 얼굴 영상에서 눈, 눈썹, 입, 코 등의 관심 영역을 adaboost 또는 SVM을 이용하여 추출한다. 그리고 단말제어부(27)는 추출한 관심 영역의 위치변화로부터 상대방의 표정 변화를 감지할 수 있다.Next, in step S80, the calling terminal 20 monitors whether the counterpart takes a specific facial expression in the received image. Referring to FIG. 5, the following description will be made with reference to FIG. First, in step S81, the calling terminal 20 extracts the face image of the other party from the received image data. Next, in step S83, the calling terminal 20 extracts a region of interest from the extracted face image. In operation S85, the calling terminal 20 detects the expression of the other party by tracking the extracted change of the ROI. For example, the received image data includes a plurality of frame image data, and a predetermined number of image data is captured from the plurality of frame image data included in the image data received at a predetermined time, and the other image is extracted from the captured image data. The face image may be extracted. That is, the terminal controller 27 can extract the other party's face image from the received image data using one of PCA, FDA, and ICA. The terminal controller 27 extracts a region of interest such as an eye, an eyebrow, a mouth, or a nose from the extracted face image by using an adaboost or SVM. In addition, the terminal controller 27 can detect a change in the facial expression of the other party from the position change of the extracted region of interest.

다음으로 S87단계에서 발신 단말기(20)는 감지한 표정이 저장부(23)에 기 저장된 특정 표정에 포함되는 지의 여부를 판단한다. 즉 발신 단말기(20)가 추출한 관심영역의 변화를 추적하여 상대방이 특정 표정을 취하는 지를 모니터링한다. 예컨대 발신 단말기(20)는 감지한 표정에 포함된 관심영역과 기 저장된 특정 표정의 관심영역을 비교하여 일치하는 특정 표정이 있는 지의 여부로 S87단계를 수행할 수 있다.Next, in step S87, the calling terminal 20 determines whether the detected facial expression is included in a specific facial expression previously stored in the storage unit 23. In other words, by monitoring the change in the region of interest extracted by the calling terminal 20 to monitor whether the other party takes a particular facial expression. For example, the calling terminal 20 may perform step S87 by comparing the region of interest included in the detected facial expression with the region of interest of the previously stored specific facial expression or not.

S87단계의 판단 결과 기 저장된 특정 표정에 포함되지 않는 경우, 발신 단말기(20)는 S81단계부터 다시 수행한다.If the determination result of step S87 is not included in the pre-stored specific facial expression, the calling terminal 20 performs again from step S81.

S87단계의 판단 결과 기 저장된 특정 표정에 포함되는 경우, S90단계에서 발신 단말기(20)는 감지한 표정 변화에 대응되게 아바타를 동작시킨다. 즉 모니터링 중 특정 표정을 감지하면, 발신 단말기(20)는 특정 표정에 대응하는 아바타 실행코드를 저장부(23)에서 추출한다. 또는 발신 단말기(20)는 추적한 관심영역에 대응되게 아바타의 관심영역을 변형시킬 수 있는 아바타 실행코드를 저장부(23)에서 추출할 수도 있다. 그리고 발신 단말기(20)는 추출한 아바타 실행코드에 따라 화면에 표시된 아바타를 동작시켜 상대방의 감정을 아바타를 통하여 사용자에게 전달한다. 예컨대 아바타는 화면에 표시될 때, 상대방 영상에 중첩되어 표시되거나 PIP 형태로 표시될 수 있다. 따라서 발신 단말기(20)의 사용자는 출력되는 아바타를 통하여 착신 단말기(40) 사용자의 감정상태를 쉽게 알 수 있다.If the determination result in step S87 is included in the pre-stored specific facial expression, in step S90 the calling terminal 20 operates the avatar corresponding to the detected facial expression change. That is, when a specific facial expression is detected during monitoring, the calling terminal 20 extracts the avatar execution code corresponding to the specific facial expression from the storage unit 23. Alternatively, the calling terminal 20 may extract the avatar execution code from the storage unit 23 that may transform the ROI of the avatar to correspond to the tracked ROI. The calling terminal 20 transmits the emotion of the other party to the user through the avatar by operating the avatar displayed on the screen according to the extracted avatar execution code. For example, when the avatar is displayed on the screen, the avatar may be superimposed on the counterpart image or displayed in a PIP form. Therefore, the user of the calling terminal 20 can easily know the emotional state of the user of the called terminal 40 through the output avatar.

한편 제1 실시예에 따른 감정 전달 방법에서는 발신 단말기(20)에 아바타를 표시하여 착신 단말기(40) 사용자의 감정 상태를 발신 단말기(20) 사용자에게 전달하는 예를 개시하였지만, 반대로 착신 단말기(20)에 아바타를 표시하여 발신 단말기(20) 사용자의 감정 상태를 착신 단말기(40) 사용자에게 전달할 수도 있다.Meanwhile, in the emotion transmitting method according to the first embodiment, an example of transmitting an emotion state of the user of the called terminal 40 to the user of the calling terminal 20 by displaying an avatar on the calling terminal 20 is disclosed. ), An avatar may be displayed on the caller terminal 20 to transmit the emotional state of the caller terminal 20 user to the caller terminal 40 user.

한편 제1 실시예에 따른 감정 전달 시스템(100)은 발신 단말기(20) 또는 착신 단말기(40)가 저장부(23)에 저장된 아바타를 호출하여 표시하고, 상대방의 표정 변화에 대응되게 아바타를 동작시키는 예를 개시하였지만 이에 한정되는 것은 아니다. 즉 도 6에 도시된 바와 같이, 발신 단말기(20) 또는 착신단말기(40)는 상대방에 대응하는 아바타를 아바타 제공서버(30)를 통하여 수신하여 표시할 수 있다.Meanwhile, the emotion transmitting system 100 according to the first embodiment calls and displays the avatar stored in the storage unit 23 by the calling terminal 20 or the called terminal 40, and operates the avatar in response to the facial expression change of the other party. An example is disclosed, but is not limited thereto. That is, as shown in FIG. 6, the calling terminal 20 or the called terminal 40 may receive and display an avatar corresponding to the counterpart through the avatar providing server 30.

본 발명의 제2 실시예에 따른 영상통화 중 상대방의 표정 인식을 통한 감정 전달 시스템(200)은, 도 6에 도시된 바와 같이, 통신망(10)을 매개로 연결된 발신 단말기(20), 아바타 제공서버(30) 및 착신 단말기(40)를 포함하여 구성된다.In the video call according to the second embodiment of the present invention, the emotion transmission system 200 through the facial recognition of the other party, as shown in Figure 6, the originating terminal 20 connected via the communication network 10, the avatar provided It comprises a server 30 and the destination terminal 40.

발신 단말기(20)와 착신 단말기(40)는 통신망(10)의 통신망(10)을 매개로 서로 간에 영상통화를 수행한다. 발신 단말기(20) 또는 착신 단말기(40)는 통신망(10)을 통하여 아바타 제공서버(30)로부터 상대방의 표정에 따른 감정이 반영된 아바타를 수신하여 표시한다. The calling terminal 20 and the called terminal 40 perform a video call with each other via the communication network 10 of the communication network 10. The calling terminal 20 or the called terminal 40 receives and displays the avatar reflecting the emotion according to the expression of the other party from the avatar providing server 30 through the communication network 10.

통신망(10)은 통신망(10)을 통한 발신 단말기(20), 아바타 제공서버(30) 및 착신 단말기(40) 사이의 데이터 전송 및 정보 교환을 위한 일련의 데이터 송수신 동작을 수행한다. 특히 통신망(10)은 발신 단말기(20)로부터 영상 호를 수신하면, 발신 단말기(20)와 착신 단말기(30) 간의 영상통화를 위한 영상 호 경로를 설정한다. 설정된 영상 호 경로를 통하여 영상통화가 개시되면, 통신망(10)은 상대방의 표정에 따른 감정이 반영된 아바타를 아바타 제공서버(30)로부터 수신하여 영상통화 단말기(20,40)로 전송한다.The communication network 10 performs a series of data transmission / reception operations for data transmission and information exchange between the calling terminal 20, the avatar providing server 30, and the called terminal 40 via the communication network 10. In particular, when the communication network 10 receives a video call from the calling terminal 20, the communication network 10 sets a video call path for a video call between the calling terminal 20 and the called terminal 30. When a video call is initiated through the set video call path, the communication network 10 receives an avatar reflecting the emotion according to the expression of the other party from the avatar providing server 30 and transmits the avatar to the video call terminals 20 and 40.

그리고 아바타 제공서버(30)는 통신망(10)을 매개로 발신 단말기(20) 및 착신 단말기(30)와 통신을 수행한다. 영상통화가 개시되면, 아바타 제공서버(30)는 통신망(10)을 통하여 발신 단말기(20) 또는 착신 단말기(40)로 상대방에 대응하는 아바타를 전송한다. 아바타 제공서버(30)는 아바타를 수신한 단말기의 상대방 단말기로부터 영상데이터를 수신하고, 수신한 영상데이터에서 상대방이 특정 표정을 취하는 지를 모니터링하고, 모니터링 중 감지한 특정 표정에 대응되게 아바타를 동작시킨다. 따라서 사용자는 아바타의 표정이나 행동 등의 상태를 통하여 상대방의 감정상태를 알 수 있다.The avatar providing server 30 communicates with the calling terminal 20 and the called terminal 30 via the communication network 10. When the video call is started, the avatar providing server 30 transmits the avatar corresponding to the counterpart to the calling terminal 20 or the called terminal 40 through the communication network 10. The avatar providing server 30 receives image data from the counterpart terminal of the terminal that receives the avatar, monitors whether the other party takes a specific facial expression from the received image data, and operates the avatar corresponding to the specific facial expression detected during monitoring. . Therefore, the user can know the emotional state of the other party through the state of the facial expression or behavior of the avatar.

특히 제2 실시예에 따른 아바타 제공서버(30)는 송수신부(31), 데이터베이스부(33) 및 제어부(35)를 포함하여 구성된다.In particular, the avatar providing server 30 according to the second exemplary embodiment includes a transceiver 31, a database 33, and a controller 35.

송수신부(31)는 통신망(10)을 매개로 발신 단말기(20) 및 착신 단말기(40)와 통신을 수행한다. 송수신부(31)는 제어부(35)의 제어에 따라 통신망(10)으로부터 아바타 요청을 수신하고, 통신망(10)으로 요청한 아바타를 전송한다. 그리고 송수신부(31)는 제어부(35)의 제어에 따라 통신망(10)으로 아바타 실행코드를 전송한다.The transceiver 31 communicates with the calling terminal 20 and the called terminal 40 via the communication network 10. The transceiver 31 receives an avatar request from the communication network 10 under the control of the controller 35, and transmits the requested avatar to the communication network 10. The transmitter / receiver 31 transmits the avatar execution code to the communication network 10 under the control of the controller 35.

데이터베이스부(33)는 발신 단말기(20) 또는 착신 단말기(40)를 포함하는 영상통화 단말기 사용자가 취하는 특정 제스처에 대응하는 아바타를 저장한다. 또한 데이터베이스부(33)는 영상통화 단말기(20,40)의 사용자에 의해 설정된 아바타와, 아바타를 동작시키는 아바타 실행코드를 저장한다. 사용자는 상대방에 대응되게 아바타를 설정할 수 있다. 아바타는 사용자의 선택 신호에 따라 상대방의 단말정보에 매칭하여 설정된 아바타와, 디폴트로 설정된 일반 아바타를 포함한다. 디폴트로 설정된 일반 아바타는 사용자가 설정한 상대방 이외의 사람과 영상통화를 수행할 경우에 사용될 수 있다.The database unit 33 stores an avatar corresponding to a specific gesture taken by the user of the video call terminal including the calling terminal 20 or the called terminal 40. In addition, the database unit 33 stores the avatar set by the user of the video call terminals 20 and 40 and the avatar execution code for operating the avatar. The user may set the avatar to correspond to the counterpart. The avatar includes an avatar set according to the terminal information of the counterpart according to the user's selection signal and a general avatar set by default. The general avatar set as a default may be used when conducting a video call with a person other than the user.

그리고 제어부(35)는 아바타 제공서버(30)의 전반적인 제어 동작을 수행한다. 특히 제어부(35)는 영상통화 중 상대방의 표정 인식을 통한 사용자 단말기로의 아바타 전송을 제어한다.In addition, the controller 35 performs an overall control operation of the avatar providing server 30. In particular, the controller 35 controls the transmission of the avatar to the user terminal by recognizing the facial expression of the other party during the video call.

제어부(35)는 아바타 설정 모드에서, 영상통화 단말기(20,40)를 통한 사용자의 선택 신호에 따라 상대방에 대응하는 아바타를 설정하고, 설정된 아바타를 동작시키는 아바타 실행코드를 설정할 수 있다. 이때 제어부(35)에 의한 아바타 및 아바타 실행코드의 설정은 도 2의 단말제어부(23)에 의한 설정 방식과 동일한 방식으로 수행될 수 있기 때문에, 상세한 설명은 생략한다.In the avatar setting mode, the controller 35 may set an avatar corresponding to the counterpart according to a user's selection signal through the video call terminals 20 and 40, and set an avatar execution code for operating the set avatar. In this case, since the setting of the avatar and the avatar execution code by the control unit 35 may be performed in the same manner as the setting method by the terminal control unit 23 of FIG. 2, a detailed description thereof will be omitted.

제어부(35)는 통신망(10)을 매개로 발신 단말기(20)와 착신 단말기(40) 간에 영상통화가 개시되면, 통신망(10)을 통하여 발신 단말기(20) 또는 착신 단말기(40)로 상대방에 대응하는 아바타를 전송한다. 제어부(35)는 아바타를 수신한 단말기의 상대방 단말기로부터 영상데이터를 수신하고, 수신한 영상데이터에서 상대방이 특정 표정을 취하는 지를 모니터링한다. 제어부(35)는 모니터링 중 특정 표정을 감지하면, 특정 표정에 대응되게 아바타를 동작시킬 수 있는 아바타 실행코드를 상대방 단말기로 전송한다.When the video call is started between the calling terminal 20 and the called terminal 40 through the communication network 10, the controller 35 sends the calling terminal 20 or the called terminal 40 to the other party through the communication network 10. Send the corresponding avatar. The controller 35 receives image data from the counterpart terminal of the terminal that has received the avatar, and monitors whether the counterpart has a specific facial expression. If the control unit 35 detects a specific facial expression during monitoring, the controller 35 transmits an avatar execution code for operating the avatar corresponding to the specific facial expression to the counterpart terminal.

이때 아바타는 상대방이 취한 특정 표정에 대응하는 설정된 행동 방식으로 동작할 수 있다. 특정 표정에 대응되게 서로 다른 아바타가 설정될 수도 있고, 동일한 아바타에 대해서 행동 방식을 다르게 설정할 수도 있다.In this case, the avatar may operate in a set action manner corresponding to a specific facial expression taken by the counterpart. Different avatars may be set to correspond to specific facial expressions, or different behaviors may be set for the same avatar.

제어부(35)는 아바타를 데이터베이스부(33)에서 호출하거나 상대방 단말기로부터 수신하여 사용자 단말기로 전송한다. 즉 영상통화가 개시되면, 제어부(35)는 상대방에 대응하는 아바타가 데이터베이스부(33)에 설정되어 있는 지를 확인한다. 확인 결과 설정되어 있으면, 제어부(35)는 설정된 아바타를 호출한다. 확인 결과 미설정되어 있으면, 제어부(35)는 데이터베이스부(33)에 저장된 일반 아바타를 호출하거나 상대방 단말기로 아바타를 요청하여 수신할 수 있다. 그리고 제어부(35)는 호출하거나 수신한 아바타를 사용자 단말기로 전송한다. 이때 제어부(35)는 아바타를 현재 설정된 영상 호 경로 또는 별도의 메시지 서비스 채널을 통하여 사용자 단말기로 전송한다.The controller 35 calls the avatar from the database unit 33 or receives the avatar from the counterpart terminal and transmits the avatar to the user terminal. That is, when the video call is started, the controller 35 checks whether the avatar corresponding to the counterpart is set in the database unit 33. If the check result is set, the control unit 35 calls the set avatar. If the check result is not set, the control unit 35 may call the general avatar stored in the database unit 33 or request and receive the avatar from the counterpart terminal. The controller 35 transmits the called or received avatar to the user terminal. In this case, the controller 35 transmits the avatar to the user terminal through a currently set video call path or a separate message service channel.

제어부(35)는 수신한 영상데이터에서 상대방이 취하는 표정을 다음과 같이 모니터링할 수 있다. 즉 제어부(35)는 수신한 영상데이터를 분석하여 상대방의 얼굴 영상을 추출하고, 추출한 얼굴 영상에서 관심영역을 추출한다. 그리고 제어부(35)는 추출한 관심영역의 위치 변화를 추적하여 상대방의 표정을 감지한다. 예컨대 제어부(35)는 수신한 영상데이터에서 상대방의 얼굴 영상을 PCA, FDA, ICA 중에 하나를 이용하여 추출할 수 있다. 제어부(35)는 추출한 얼굴 영상에서 눈, 눈썹, 입, 코 등의 관심 영역을 adaboost 또는 SVM을 이용하여 추출한다. 그리고 제어부(35)는 추출한 관심영역의 위치변화로부터 상대방의 표정 변화를 감지할 수 있다. 제어부(35)는 추적한 관심영역에 따른 상대방의 연속적 또는 불연속적인 표정을 감지한다.The controller 35 may monitor the facial expression taken by the other party in the received image data as follows. That is, the controller 35 analyzes the received image data, extracts a face image of the other party, and extracts a region of interest from the extracted face image. In addition, the controller 35 detects an expression of the other party by tracking the position change of the extracted ROI. For example, the controller 35 may extract the other party's face image from the received image data using one of PCA, FDA, and ICA. The controller 35 extracts a region of interest, such as an eye, an eyebrow, a mouth, or a nose, from an extracted face image by using an adaboost or SVM. In addition, the controller 35 may detect a change in the facial expression of the other party from the position change of the extracted ROI. The controller 35 detects a continuous or discontinuous facial expression of the other party according to the tracked ROI.

제어부(35)는 모니터링 중 특정 표정을 감지하면, 특정 표정에 대응하는 아바타 실행코드를 데이터베이스부(33)에서 추출한다. 제어부(35)는 추출한 아바타 실행코드를 사용자 단말기로 전송하여 아바타를 동작시킨다. 이때 제어부(35)는 추적한 관심영역과 특정 표정의 관심영역의 위치값을 비교하여 일치하는 특정 표정이 있는 지를 모니터링할 수 있다. 제어부(35)는 아바타 실행코드를 현재 설정된 영상 호 경로 또는 별도의 메시지 서비스 채널을 통하여 전송할 수 있다.If the controller 35 detects a specific facial expression during monitoring, the controller 35 extracts the avatar execution code corresponding to the specific facial expression from the database 33. The controller 35 transmits the extracted avatar execution code to the user terminal to operate the avatar. In this case, the controller 35 may monitor whether there is a specific facial expression that matches by comparing the tracked ROI and the position value of the ROI of the specific facial expression. The controller 35 may transmit the avatar execution code through a currently set video call path or a separate message service channel.

한편 제어부(35)는 추적한 관심영역에 대응되게 아바타의 관심영역을 변형시킬 수 있는 아바타 실행코드를 추출하여 사용자 단말기로 전송할 수 있다.On the other hand, the controller 35 may extract the avatar execution code for transforming the avatar's ROI corresponding to the tracked ROI and transmit it to the user terminal.

제2 실시예에 따른 감정 전달 시스템(200)의 감정 전달 방법에 대해서 도 6 및 도 7을 참조하여 설명하면 다음과 같다. 여기서 도 7은 본 발명의 제2 실시예에 따른 영상통화 중 상대방의 표정 인식을 통한 감정 전달 방법에 따른 흐름도이다.The emotion delivery method of the emotion delivery system 200 according to the second embodiment will now be described with reference to FIGS. 6 and 7. 7 is a flowchart illustrating a method of transmitting emotions through facial expression recognition of a counterpart during a video call according to the second embodiment of the present invention.

먼저 S51단계 내지 S59단계까지는 도 3의 감정 전달 방법과 동일하게 진행되기 때문에 상세한 설명은 생략하고, S59단계 이후부터 설명하면 다음과 같다. 한편 S51단계를 수행하기 전에, 아바타 제공서버(30)는 발신 단말기(20)를 통한 사용자의 선택 신호에 따라 아바타 설정 모드에서 상대방에 대응하는 아바타와, 설정된 아바타를 동작시키는 아바타 실행코드를 설정할 수 있다. 사용자는 아바타 설정 모드에서 자신 또는 상대방이 좋아하거나 관심 있는 분야의 아바타 또는 아바타 실행코드를 선택하여 설정할 수 있다.First, since steps S51 to S59 proceed in the same manner as in the emotion transmitting method of FIG. 3, a detailed description thereof will be omitted and will be described after step S59. Meanwhile, before performing step S51, the avatar providing server 30 may set an avatar corresponding to the other party and an avatar execution code for operating the set avatar in the avatar setting mode according to a user's selection signal through the calling terminal 20. have. In the avatar setting mode, the user may select and set an avatar or an avatar execution code of a field that the user or the counterpart likes or is interested in.

다음으로 S59단계에 따라 영상통화가 개시되면, S61단계에서 통신망(10)은 발신 단말기(20)로 전송할 아바타를 아바타 제공서버(30)로 요청한다. 다음으로 S63단계에서 아바타 제공서버(30)는 데이터베이스부(33)에서 발신 단말기(20) 또는 착신 단말기(40) 사용자에 의해 설정된 아바타를 추출하여 통신망(10)으로 전송한다. 이때 아바타는 착신 단말기(40) 사용자에 대응되게 설정된 아바타일 수 있다. 아바타 제공서버(30)는 아바타를 현재 설정된 영상 호 경로 또는 별도의 메시지 서비스 채널을 통하여 전송할 수 있다.Next, when the video call is started in step S59, the communication network 10 requests the avatar providing server 30 to send the avatar to the calling terminal 20 in step S61. Next, in step S63, the avatar providing server 30 extracts the avatar set by the user of the calling terminal 20 or the called terminal 40 from the database unit 33 and transmits the avatar to the communication network 10. In this case, the avatar may be an avatar set to correspond to the user of the called terminal 40. The avatar providing server 30 may transmit the avatar through a currently set video call path or a separate message service channel.

다음으로 S65단계에서 통신망(10)은 수신한 상대방 영상과 아바타를 발신 단말기(20)로 전송한다. S76단계에서 발신 단말기(20)는 수신한 상대방 영상과 아바타를 화면에 표시한다.In operation S65, the communication network 10 transmits the received counterpart image and the avatar to the calling terminal 20. In operation S76, the calling terminal 20 displays the received counterpart image and the avatar on the screen.

한편 S67단계에서 통신망(10)은 착신 단말기(40)로부터 수신한 상대방 영상을 아바타 제공서버(30)로 전송한다.In operation S67, the communication network 10 transmits the counterpart image received from the called terminal 40 to the avatar providing server 30.

다음으로 S80단계에서 아바타 제공서버(30)는 수신한 영상에서 상대방이 특정 표정을 취하는 지를 모니터링한다.. S80단계를 도 5를 참조하여 구체적으로 설명하면 다음과 같다. 먼저 S81단계에서 아바타 제공서버(30)는 수신한 영상데이터에서 상대방의 얼굴 영상을 추출한다. 다음으로 S83단계에서 아바타 제공서버(30)는 추출한 얼굴 영상에서 관심영역을 추출한다. 그리고 S85단계에서 아바타 제공서버(30)는 추출한 관심영역의 변화를 추적하여 상대방의 표정을 감지한다. 예컨대 수신한 영상데이터는 복수의 프레임 영상 데이터를 포함하며, 일정 시간에 수신되는 영상데이터에 포함된 복수의 프레임 영상 데이터에서 일정 수의 영상데이터를 캡쳐하고, 캡쳐한 영상데이터에서 상대방 영상을 추출한 후 얼굴 영상을 추출할 수 있다. 즉 제어부(35)는 수신한 영상데이터에서 상대방의 얼굴 영상을 PCA, FDA, ICA 중에 하나를 이용하여 추출할 수 있다. 제어부(35)는 추출한 얼굴 영상에서 눈, 눈썹, 입, 코 등의 관심 영역을 adaboost 또는 SVM을 이용하여 추출한다. 그리고 제어부(35)는 추출한 관심 영역의 위치변화로부터 상대방의 표정 변화를 감지할 수 있다.Next, in step S80, the avatar providing server 30 monitors whether the counterpart has a specific facial expression in the received image. The step S80 will be described in detail with reference to FIG. First, in step S81, the avatar providing server 30 extracts the face image of the other party from the received image data. Next, in step S83, the avatar providing server 30 extracts a region of interest from the extracted face image. In operation S85, the avatar providing server 30 detects the expression of the other party by tracking the extracted change of the ROI. For example, the received image data includes a plurality of frame image data, and a predetermined number of image data is captured from the plurality of frame image data included in the image data received at a predetermined time, and the other image is extracted from the captured image data. The face image may be extracted. That is, the controller 35 may extract the face image of the counterpart from the received image data using one of PCA, FDA, and ICA. The controller 35 extracts a region of interest, such as an eye, an eyebrow, a mouth, or a nose, from an extracted face image by using an adaboost or SVM. In addition, the controller 35 may detect a change in facial expression of the other party from the position change of the extracted ROI.

다음으로 S87단계에서 아바타 제공서버(30)는 감지한 표정이 데이터베이스부(33)에 기 저장된 특정 표정에 포함되는 지의 여부를 판단한다. 즉 아바타 제공서버(30)가 추출한 관심영역의 변화를 추적하여 상대방이 특정 표정을 취하는 지를 모니터링한다. 예컨대 아바타 제공서버(30)는 감지한 표정에 포함된 관심영역과 기 저장된 특정 표정의 관심영역을 비교하여 일치하는 특정 표정이 있는 지의 여부로 S87단계를 수행할 수 있다.Next, in step S87, the avatar providing server 30 determines whether the detected facial expression is included in a specific facial expression previously stored in the database 33. That is, the avatar providing server 30 tracks the extracted region of interest and monitors whether the other person has a specific facial expression. For example, the avatar providing server 30 may perform step S87 by comparing the ROI included in the detected facial expression with the ROI of the specific facial expression stored in advance.

S87단계의 판단 결과 기 저장된 특정 표정에 포함되지 않는 경우, 아바타 제공서버(30)는 S81단계부터 다시 수행한다.If the determination result in step S87 is not included in the pre-stored specific facial expression, the avatar providing server 30 performs again from step S81.

S87단계의 판단 결과 기 저장된 특정 표정에 포함되는 경우, S91단계에서 아바타 제공서버(30)는 감지한 표정 변화에 대응하는 아바타 실행코드를 데이터베이스부(33)에서 추출한다. 또는 아바타 제공서버(30)는 추적한 관심영역에 대응되게 아바타의 관심영역을 변형시킬 수 있는 아바타 실행코드를 데이터베이스부(33)에서 추출할 수도 있다.If the determination result in step S87 is included in the previously stored specific facial expression, in step S91, the avatar providing server 30 extracts the avatar execution code corresponding to the detected facial expression change from the database unit 33. Alternatively, the avatar providing server 30 may extract, from the database unit 33, the avatar execution code that can transform the ROI of the avatar to correspond to the tracked ROI.

다음으로 S93단계에서 아바타 제공서버(30)는 추출한 아바타 실행코드를 통신망(10)으로 전송한다. 이어서 S95단계에서 통신망(10)은 수신한 아바타 실행코드를 발신 단말기(20)로 전달한다. 이때 아바타 제공서버(30)는 아바타 실행코드를 현재 설정된 영상 호 경로 또는 별도의 메시지 서비스 채널을 통하여 발신 단말기(20)로 전송할 수 있다.Next, in step S93, the avatar providing server 30 transmits the extracted avatar execution code to the communication network 10. In operation S95, the communication network 10 transmits the received avatar execution code to the calling terminal 20. In this case, the avatar providing server 30 may transmit the avatar execution code to the calling terminal 20 through the currently set video call path or a separate message service channel.

그리고 S97단계에서 발신 단말기(20)는 수신한 아바타 실행코드에 따라 화면에 표시된 아바타를 동작시켜 상대방의 감정을 아바타를 통하여 사용자에게 전달한다. 예컨대 아바타는 화면에 표시될 때, 상대방 영상에 중첩되어 표시되거나 PIP 형태로 표시될 수 있다. 따라서 발신 단말기(20)의 사용자는 출력되는 아바타를 통하여 착신 단말기(40) 사용자의 감정상태를 쉽게 알 수 있다.In operation S97, the calling terminal 20 operates the avatar displayed on the screen according to the received avatar execution code to transmit the emotion of the other party to the user through the avatar. For example, when the avatar is displayed on the screen, the avatar may be superimposed on the counterpart image or displayed in a PIP form. Therefore, the user of the calling terminal 20 can easily know the emotional state of the user of the called terminal 40 through the output avatar.

한편 제2 실시예에 따른 감정 전달 방법에서는 아바타 제공서버(30)가 발신 단말기(20)로 착신 단말기(40) 사용자의 감정 상태를 표현하는 아바타를 제공하는 예를 개시하였지만, 반대로 착신 단말기(40)로 발신 단말기(20) 사용자의 감정 상태를 표현하는 아바타를 제공할 수도 있다. 또는 착신 및 발신 단말기에 상대방의 감정 상태를 표현하는 아바타를 각각 제공할 수도 있다.Meanwhile, in the emotion transmitting method according to the second embodiment, an example in which the avatar providing server 30 provides an avatar representing the emotional state of the user of the called terminal 40 to the calling terminal 20 is disclosed. ) May provide an avatar representing the emotional state of the user of the calling terminal 20. Alternatively, an avatar representing the emotional state of the other party may be provided to the called party and the calling terminal, respectively.

한편, 본 명세서와 도면에 개시된 본 발명의 실시예들은 이해를 돕기 위해 특정 예를 제시한 것에 지나지 않으며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 것이다.On the other hand, the embodiments of the present invention disclosed in the specification and drawings are merely presented specific examples to aid understanding, and are not intended to limit the scope of the present invention. In addition to the embodiments disclosed herein, it is apparent to those skilled in the art that other modifications based on the technical idea of the present invention may be implemented.

본 발명은 영상통화 중 상대방의 표정 인식을 통한 감정 전달 시스템 및 방법에 관한 것으로, 영상통화 단말기는 영상통화 중 상대방에 대응하는 아바타를 상대방의 영상과 함께 화면에 표시하고, 상대방 단말기로부터 수신한 영상데이터를 분석하여 감지한 상대방의 특정 표정에 대응하게 아바타를 동작시킴으로써, 단말기 사용자는 영상통화를 수행하면서 상대방의 감정상태를 아바타를 통하여 빠르고 정확하게 인식할 수 있다. 사용자는 영상통화 중 사용할 아바타를 자신이 직접 설정하여 사용할 수 있기 때문에 영상통화자의 다양한 요구를 충족시키면서 영상통화자의 흥미를 유발하여 영상통화의 사용을 확대할 수 있고, 또한 사용자는 아바타의 모습이나 행동 방식을 직접 설정할 수 있기 때문에 사용자의 개성을 추구하면서 보다 흥미롭게 영상통화를 사용할 수 있는 환경을 제공할 수 있다.The present invention relates to a system and a method for transmitting emotions by recognizing a facial expression of a counterpart during a video call, wherein the video call terminal displays an avatar corresponding to the counterpart along with the video of the counterpart on a screen and receives an image received from the counterpart terminal. By operating the avatar in response to the specific facial expression of the counterpart by analyzing the data, the terminal user can quickly and accurately recognize the emotional state of the counterpart through the avatar while performing a video call. Since the user can directly set and use the avatar to be used during the video call, the user can expand the use of the video call by inducing interest of the video call while satisfying the various needs of the video caller. Since the method can be set directly, it can provide an environment in which a video call can be used more interestingly while pursuing the user's personality.

도 1은 본 발명의 제1 실시예에 따른 영상통화 중 상대방의 표정 인식을 통한 감정 전달 시스템을 보여주는 블록도이다.1 is a block diagram illustrating an emotion transmission system through facial recognition of a counterpart during a video call according to the first embodiment of the present invention.

도 2는 도 1의 발신 단말기의 구성을 보여주는 블록도이다.FIG. 2 is a block diagram illustrating a configuration of a calling terminal of FIG. 1.

도 3은 본 발명의 제1 실시예에 따른 영상통화 중 상대방의 표정 인식을 통한 감정 전달 방법에 따른 흐름도이다.3 is a flowchart illustrating a method of transmitting emotions through facial expression recognition of a counterpart during a video call according to the first embodiment of the present invention.

도 4는 도 3의 아바타 표시 단계에 따른 상세 흐름도이다.4 is a detailed flowchart of the avatar display step of FIG. 3.

도 5는 도 3의 표정 변화 감지 단계에 따른 상세 흐름도이다.FIG. 5 is a detailed flowchart according to the facial expression change detection step of FIG. 3.

도 6은 본 발명의 제2 실시예에 따른 영상통화 중 상대방의 표정 인식을 통한 감정 전달 시스템을 보여주는 블록도이다.FIG. 6 is a block diagram illustrating an emotion transmission system through facial expression recognition of a counterpart during a video call according to the second embodiment of the present invention.

도 7은 본 발명의 제2 실시예에 따른 영상통화 중 상대방의 표정 인식을 통한 감정 전달 방법에 따른 흐름도이다.7 is a flowchart illustrating a method of transmitting emotions through facial expression recognition of a counterpart during a video call according to the second embodiment of the present invention.

* 도면의 주요 부분에 대한 설명 *Description of the Related Art [0002]

10 : 통신망10: communication network

20 : 발신 단말기20: calling terminal

30 : 아바타 제공서버30: avatar providing server

40 : 착신 단말기40: called terminal

100, 200 : 감정 전달 시스템100, 200: emotional delivery system

Claims (23)

발신 단말기와 착신 단말기 간의 영상통화를 제어하는 통신망;A communication network controlling a video call between a calling terminal and a called terminal; 상기 통신망을 매개로 상기 발신 단말기와 착신 단말기 간에 영상통화가 개시되면, 상기 통신망을 통하여 상기 발신 단말기 또는 착신 단말기로 상대방에 대응하는 아바타를 전송하고, 상기 아바타를 수신한 단말기의 상대방 단말기로부터 영상데이터를 수신하고, 상기 수신한 영상데이터에서 상기 상대방이 특정 표정을 취하는 지를 모니터링하고, 상기 모니터링 중 상기 특정 표정을 감지하면, 상기 감지한 특정 표정에 대응되게 상기 아바타를 동작시킬 수 있는 아바타 실행코드를 상기 아바타를 수신한 단말기로 전송하는 아바타 제공서버;When a video call is initiated between the calling terminal and the called terminal through the communication network, an avatar corresponding to the other party is transmitted to the calling terminal or the called terminal through the communication network, and video data is received from the other terminal of the terminal receiving the avatar. Receiving a, and monitors whether the other party takes a particular facial expression in the received image data, and if the specific facial expression is detected during the monitoring, the avatar execution code that can operate the avatar corresponding to the detected specific facial expression An avatar providing server for transmitting the avatar to a terminal; 를 포함하는 것을 특징으로 하는 영상통화 중 상대방의 표정 인식을 통한 감정 전달 시스템.Emotion delivery system through the recognition of the facial expression of the other side of the video call. 통신망을 매개로 발신 단말기 또는 착신 단말기와 통신을 수행하는 송수신부;A transceiver for performing communication with a calling terminal or a called terminal via a communication network; 상기 통신망을 매개로 상기 발신 단말기와 착신 단말기 간에 영상통화가 개시되면, 상기 통신망을 통하여 상기 발신 단말기 또는 착신 단말기로 상대방에 대응하는 아바타를 전송하고, 상기 아바타를 수신한 단말기의 상대방 단말기로부터 영상데이터를 수신하고, 상기 수신한 영상데이터에서 상기 상대방이 특정 표정을 취하는 지를 모니터링하고, 상기 모니터링 중 상기 특정 표정을 감지하면, 상기 감 지한 특정 표정에 대응되게 상기 아바타를 동작시킬 수 있는 아바타 실행코드를 상기 아바타를 수신한 단말기로 전송하는 제어부;When a video call is initiated between the calling terminal and the called terminal through the communication network, an avatar corresponding to the other party is transmitted to the calling terminal or the called terminal through the communication network, and video data is received from the other terminal of the terminal receiving the avatar. And receiving an avatar from the received image data and monitoring whether the counterpart has a specific facial expression. If the specific facial expression is detected during the monitoring, the avatar execution code may be operated to correspond to the detected specific facial expression. A control unit for transmitting the avatar to the terminal; 를 포함하는 것을 특징으로 하는 영상통화 중 상대방의 표정 인식을 통한 감정 전달 시스템의 아바타 제공서버.Avatar providing server of the emotion delivery system by recognizing the expression of the other side of the video call. 제2항에 있어서,The method of claim 2, 상기 발신 단말기 또는 착신 단말기의 사용자에 의해 설정된 아바타와, 상기 아바타를 동작시키는 아바타 실행코드를 저장하는 데이터베이스부;A database unit for storing an avatar set by a user of the calling terminal or the called terminal and an avatar execution code for operating the avatar; 를 더 포함하며,More, 상기 제어부는 상기 상대방에 대응되는 아바타를 상기 데이터베이스부에서 호출하여 상기 발신 단말기 또는 착신 단말기로 전송하고, 상기 모니터링 중 상기 감지한 특정 표정에 대응하는 아바타 실행코드를 상기 데이터베이스부에서 추출하여 상기 아바타를 수신한 단말기로 전송하는 것을 특징으로 하는 영상통화 중 상대방의 표정 인식을 통한 감정 전달 시스템의 아바타 제공서버.The controller calls the avatar corresponding to the counterpart from the database to transmit the avatar to the calling terminal or the called terminal, extracts the avatar execution code corresponding to the detected facial expression from the database, and extracts the avatar. The avatar providing server of the emotion delivery system through the facial recognition of the other party during the video call characterized in that the transmission to the terminal. 상대방 단말기와 영상통화를 수행하는 통신부;Communication unit for performing a video call with the other terminal; 영상통화 중 사용자를 촬영하는 카메라부;A camera unit for photographing a user during a video call; 상기 통신부를 통하여 수신한 상대방의 영상데이터를 표시하는 표시부;A display unit displaying image data of the other party received through the communication unit; 상기 통신부를 통하여 상기 상대방 단말기와 영상통화를 개시하면, 상기 상대방에 대응하는 아바타와 상기 상대방 단말기로부터 수신한 영상데이터와 함께 상 기 표시부에 표시하고, 상기 수신한 영상데이터에서 상기 상대방이 특정 표정을 취하는 지를 모니터링하고, 상기 모니터링 중 상기 특정 표정을 감지하면, 상기 감지한 특정 표정에 대응되게 상기 아바타를 동작시키는 단말제어부;When the video call is initiated with the counterpart terminal through the communication unit, the video display unit is displayed on the display unit together with the avatar corresponding to the counterpart and the video data received from the counterpart terminal, and the counterpart displays a specific facial expression in the received video data. A terminal control unit configured to monitor whether to take a gesture and to operate the avatar in response to the detected specific facial expression when the specific facial expression is detected during the monitoring; 를 포함하는 것을 특징으로 하는 영상통화 단말기.Video call terminal comprising a. 제4항에 있어서,The method of claim 4, wherein 상대방에 대응되게 설정한 아바타와, 상기 아바타를 동작시키는 아바타 실행코드를 저장하는 저장부;를 더 포함하며,And a storage unit for storing the avatar set to correspond to the counterpart and the avatar execution code for operating the avatar. 상기 제어부는 상기 상대방에 대응되는 아바타를 상기 저장부에서 호출하여 상기 표시부에 표시하고, 상기 모니터링 중 상기 감지한 특정 표정에 대응하는 아바타 실행코드를 상기 저장부에서 추출하고, 상기 추출한 아바타 실행코드에 따라 상기 아바타를 동작시키는 것을 특징으로 하는 영상통화 단말기.The controller calls the avatar corresponding to the counterpart from the storage unit and displays the avatar on the display unit. The controller extracts the avatar execution code corresponding to the detected facial expression from the storage unit and extracts the avatar execution code from the storage unit. And operating the avatar according to the video call terminal. 통신망을 매개로 발신 단말기와 착신 단말기 간에 영상 호 경로를 설정하여 영상통화가 개시되면, 아바타 제공서버가 상기 통신망을 통하여 상기 발신 단말기 또는 착신 단말기로 상대방에 대응하는 아바타를 전송하는 아바타 전송 단계;Transmitting an avatar corresponding to the other party to the calling terminal or the called terminal through the communication network when the video call is started by setting a video call path between the calling terminal and the called terminal through a communication network; 상기 아바타 제공서버가 상기 통신망을 통하여 상기 아바타를 수신한 단말기의 상대방 단말기로부터 영상데이터를 수신하는 수신 단계;A receiving step of receiving, by the avatar providing server, image data from a counterpart terminal of a terminal that receives the avatar through the communication network; 상기 아바타 제공서버가 상기 수신한 영상데이터에서 상기 상대방의 감정상태와 관련된 특정 표정을 취하는 지를 모니터링하는 모니터링 단계;A monitoring step of monitoring whether the avatar providing server takes a specific expression related to the emotional state of the counterpart from the received image data; 상기 아바타 제공서버가 상기 모니터링 중 상기 특정 표정을 감지하면, 상기 감지한 특정 표정에 대응되게 상기 아바타를 동작시킬 수 있는 아바타 실행코드를 상기 아바타를 수신한 단말기로 전송하는 아바타 실행코드 전송 단계;Transmitting the avatar execution code to the terminal receiving the avatar, when the avatar providing server detects the specific facial expression during the monitoring, an avatar execution code capable of operating the avatar corresponding to the detected specific facial expression; 를 포함하는 것을 특징으로 하는 영상통화 중 상대방의 표정 인식을 통한 감정 전달 방법.Emotion transfer method through the facial expression recognition of the other side of the video call. 제6항에 있어서, 상기 아바타 전송 단계는,The method of claim 6, wherein the transmitting of the avatar comprises: 상기 아바타 제공서버가 상기 아바타를 데이터베이스부에서 호출하거나 상기 상대방 단말기로부터 수신하여 상기 발신 단말기 또는 착신 단말기로 전송하는 것을 특징으로 영상통화 중 상대방의 표정 인식을 통한 감정 전달 방법.And the avatar providing server calls the avatar from a database unit or receives the avatar from the counterpart terminal and transmits the avatar to the calling terminal or the called terminal. 제7항에 있어서, 상기 아바타 실행코드 전송 단계는,The method of claim 7, wherein the transmitting of the avatar execution code comprises: 상기 아바타 제공서버가 상기 모니터링 중 상기 감지한 특정 표정에 대응하는 아바타 실행코드를 상기 데이터베이스부에서 추출하여 상기 아바타를 수신한 단말기로 전송하는 것을 특징으로 하는 영상통화 중 상대방의 표정 인식을 통한 감정 전달 방법.The avatar providing server extracts an avatar execution code corresponding to the specific facial expression detected during the monitoring from the database unit and transmits the avatar execution code to the terminal receiving the avatar. Way. 제6항에 있어서, 상기 아바타 전송 단계 및 상기 아바타 실행코드 전송 단계는,The method of claim 6, wherein the transmitting the avatar and transmitting the avatar execution code comprise: 상기 아바타 제공서버가 상기 아바타 및 아바타 실행코드를 상기 설정된 영 상 호 경로 또는 메시지 서비스 채널을 통하여 전송하는 것을 특징으로 하는 영상통화 중 상대방의 표정 인식을 통한 감정 전달 방법.The avatar providing server transmits the avatar and the avatar execution code through the set video call path or the message service channel. 제6항에 있어서, 상기 아바타 전송 단계 이전에 수행되는,The method of claim 6, wherein the step is performed before the avatar transmission step, 상기 아바타 제공서버가 아바타 설정 모드에서 자신 또는 상대방이 좋아하거나 관심 있는 분야의 아바타 또는 아바타 실행코드를 선택하여 설정하는 단계;Selecting and setting, by the avatar providing server, an avatar or an avatar execution code of a field that the user or the other party likes or is interested in in the avatar setting mode; 를 더 포함하는 것을 특징으로 하는 영상통화 중 상대방의 표정 인식을 통한 감정 전달 방법.Emotion delivery method through the facial recognition of the other side of the video call. 사용자 단말기가 상대방 단말기와 영상 호 경로를 설정하여 영상통화를 개시하면, 상기 상대방에 대응하는 아바타와 상기 상대방 단말기로부터 수신한 영상데이터를 함께 표시하는 표시 단계;A display step of displaying an avatar corresponding to the counterpart and the image data received from the counterpart terminal when the user terminal sets up a video call path with the counterpart terminal; 상기 사용자 단말기가 상기 수신한 영상데이터에서 상기 상대방의 감정상태와 관련된 특정 표정을 취하는 지를 모니터링하는 모니터링 단계;A monitoring step of monitoring whether the user terminal acquires a specific facial expression related to the emotional state of the counterpart from the received image data; 상기 모니터링 중 상기 특정 표정을 감지하면, 상기 사용자가 단말기가 상기 감지한 특정 표정에 대응되게 상기 아바타를 동작시키는 동작 단계;Operating the avatar in response to the specific facial expression detected by the terminal when the specific facial expression is detected during the monitoring; 를 포함하는 것을 특징으로 하는 영상통화 중 상대방의 표정 인식을 통한 감정 전달 방법.Emotion transfer method through the facial expression recognition of the other side of the video call. 제11항에 있어서, 상기 모니터링 단계는,The method of claim 11, wherein the monitoring step, 상기 사용자 단말기가 상기 수신한 영상데이터에서 상기 상대방의 얼굴 영상을 추출하고, 상기 추출한 얼굴 영상에서 관심영역을 추출하는 단계;Extracting, by the user terminal, a face image of the counterpart from the received image data, and extracting a region of interest from the extracted face image; 상기 사용자 단말기가 상기 추출한 관심영역의 변화를 추적하여 상기 상대방의 표정을 감지하는 표정 감지 단계;An expression detection step of detecting, by the user terminal, a change of the extracted region of interest to detect an expression of the counterpart; 를 포함하는 것을 특징으로 하는 영상통화 중 상대방의 표정 인식을 통한 감정 전달 방법.Emotion transfer method through the facial expression recognition of the other side of the video call. 제12항에 있어서, 상기 관심영역은,The method of claim 12, wherein the region of interest is: 눈, 눈썹, 미간, 코 및 입 중에 적어도 하나를 포함하는 것을 특징으로 영상통화 중 상대방의 표정 인식을 통한 감정 전달 방법.At least one of an eye, an eyebrow, a brow, a nose and a mouth. 제12항에 있어서, 상기 동작 단계는,The method of claim 12, wherein the operation step, 상기 모니터링 중 상기 특정 표정을 감지하면, 상기 사용자 단말기가 상기 감지한 특정 표정에 대응되는 아바타 실행코드를 저장부에서 추출하는 단계;If the specific facial expression is detected during the monitoring, extracting, by the user terminal, an avatar execution code corresponding to the detected specific facial expression from a storage unit; 상기 사용자 단말기가 상기 추출한 아바타 실행코드에 대응되게 상기 아바타를 동작시키는 단계;Operating the avatar in correspondence with the extracted avatar execution code by the user terminal; 를 포함하는 것을 특징으로 하는 영상통화 중 상대방의 표정 인식을 통한 감정 전달 방법.Emotion transfer method through the facial expression recognition of the other side of the video call. 제12항에 있어서, 상기 동작 단계는,The method of claim 12, wherein the operation step, 상기 사용자 단말기가 상기 추적한 관심영역에 대응되는 상기 아바타의 관심영역을 변형시키는 것을 특징으로 하는 영상통화 중 상대방의 표정 인식을 통한 감정 전달 방법.The method of claim 1, wherein the user terminal deforms the region of interest of the avatar corresponding to the tracked region of interest. 제12항에 있어서, 상기 표정 감지 단계는,The method of claim 12, wherein the facial expression detection step, 상기 사용자 단말기가 상기 추적한 관심영역에 따른 상기 상대방의 연속적 또는 불연속적인 표정을 감지하는 것을 특징으로 하는 영상통화 중 상대방의 표정 인식을 통한 감정 전달 방법.And transmitting the emotion through the facial recognition of the other party during the video call, wherein the user terminal detects the continuous or discontinuous facial expression of the other party according to the tracked ROI. 제11항에 있어서, 상기 표시 단계는,The method of claim 11, wherein the displaying step, 상기 사용자 단말기가 상기 아바타를 상기 저장부에서 호출하거나 상기 상대방 단말기로부터 수신하는 것을 특징으로 영상통화 중 상대방의 표정 인식을 통한 감정 전달 방법.And the user terminal calls the avatar from the storage unit or receives the avatar from the counterpart terminal. 제17항에 있어서, 상기 표시 단계는,The method of claim 17, wherein the displaying step, 상기 사용자 단말기가 상기 상대방 단말기와 영상통화를 개시하면, 상기 상대방에 대응하는 아바타가 상기 저장부에 설정되어 있는 지를 판단하는 판단 단계;A determination step of determining whether an avatar corresponding to the counterpart is set in the storage unit when the user terminal initiates a video call with the counterpart terminal; 상기 판단 결과 설정되어 있으면 상기 사용자 단말기가 상기 설정된 아바타를 호출하고, 상기 판단 결과 설정되어 있지 않으면 상기 사용자 단말기가 상기 저장부에서 일반 아바타를 호출하는 단계;If the determination result is set, the user terminal calls the set avatar; if the determination result is not set, the user terminal calls a general avatar in the storage unit; 상기 사용자 단말기가 상기 호출한 아바타와 상기 상대방 단말기로부터 수신한 영상데이터와 함께 표시하는 단계;Displaying, by the user terminal, together with the called avatar and the image data received from the counterpart terminal; 를 포함하는 것을 특징으로 하는 영상통화 중 상대방의 표정 인식을 통한 감정 전달 방법.Emotion transfer method through the facial expression recognition of the other side of the video call. 제17항에 있어서, 상기 표시 단계는,The method of claim 17, wherein the displaying step, 상기 사용자 단말기가 상기 상대방 단말기와 영상통화를 개시하면, 상기 상대방에 대응하는 아바타가 상기 저장부에 설정되어 있는 지를 판단하는 단계;Determining whether an avatar corresponding to the counterpart is set in the storage unit when the user terminal initiates a video call with the counterpart terminal; 상기 판단 결과 설정되어 있으면 상기 사용자 단말기가 상기 설정된 아바타를 호출하고, 상기 판단 결과 설정되어 있지 않으면 상기 사용자가 단말기가 상기 상대방 단말기로 상기 아바타를 요청하여 수신하는 단계;If the determination result is set, the user terminal calls the set avatar; if the determination result is not set, the user requests and receives the avatar from the counterpart terminal; 상기 사용자 단말기가 상기 상대방 단말기로부터 수신한 영상데이터와 아바타를 함께 표시하는 단계;Displaying, by the user terminal, image data received from the counterpart terminal and the avatar together; 를 포함하는 것을 특징으로 하는 영상통화 중 상대방의 표정 인식을 통한 감정 전달 방법.Emotion transfer method through the facial expression recognition of the other side of the video call. 제19항에 있어서, 상기 아바타를 요청하여 수신하는 단계에서,The method of claim 19, wherein in the request and reception of the avatar, 상기 사용자 단말기가 상기 상대방 단말기로부터 상기 아바타를 상기 설정된 영상 호 경로 또는 메시지 서비스 채널을 통하여 수신하는 것을 특징으로 하는 영상통화 중 상대방의 표정 인식을 통한 감정 전달 방법.And the user terminal receives the avatar from the counterpart terminal through the set video call path or the message service channel. 제11항에 있어서, 상기 표시 단계에서,The method of claim 11, wherein in the displaying step, 상기 아바타는 상기 수신한 영상데이터에 중첩되어 표시되거나 PIP(Picture In Picture) 형태로 표시되는 것을 특징으로 하는 영상통화 중 상대방의 표정 인식을 통한 감정 전달 방법.The avatar is superimposed on the received image data or displayed in the form of picture in picture (PIP) characterized in that the emotion transfer method through the facial expression recognition of the other party. 제11항에 있어서, 상기 아바타 전송 단계 이전에 수행되는,The method of claim 11, wherein the step is performed before the avatar transmission step. 상기 사용자 단말기가 아바타 설정 모드에서 자신 또는 상대방이 좋아하거나 관심 있는 분야의 아바타 또는 아바타 실행코드를 선택하여 설정하는 단계;Selecting and setting, by the user terminal, an avatar or an avatar execution code of a field that the user or the other party likes or is interested in in the avatar setting mode; 를 더 포함하는 것을 특징으로 하는 영상통화 중 상대방의 표정 인식을 통한 감정 전달 방법.Emotion delivery method through the facial recognition of the other side of the video call. 제6항 내지 제22항 중 어느 한 항에 있어서,The method according to any one of claims 6 to 22, 상기 아바타는 상대방 감정상태를 대신하여 표현하는 그래픽 컨텐츠로서, 애니메이션 캐릭터, 동영상, 정지영상, UCC(User Created Contents), 이모티콘, 플래시(flash), 영상과 진동이 조합된 햅틱 컨텐츠 중에 하나를 포함하는 것을 특징으로 하는 영상통화 중 상대방의 표정 인식을 통한 감정 전달 방법.The avatar is a graphic content that represents the emotion state of the other party, and includes one of an animated character, a video, a still image, a user created content (UCC), an emoticon, a flash, a haptic content in which a video and vibration are combined. Emotion transfer method through the facial recognition of the other party during the video call.
KR1020090077866A 2009-08-21 2009-08-21 System and method for delivering feeling during video call KR20110020131A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090077866A KR20110020131A (en) 2009-08-21 2009-08-21 System and method for delivering feeling during video call

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090077866A KR20110020131A (en) 2009-08-21 2009-08-21 System and method for delivering feeling during video call

Publications (1)

Publication Number Publication Date
KR20110020131A true KR20110020131A (en) 2011-03-02

Family

ID=43929524

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090077866A KR20110020131A (en) 2009-08-21 2009-08-21 System and method for delivering feeling during video call

Country Status (1)

Country Link
KR (1) KR20110020131A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101306221B1 (en) * 2011-09-23 2013-09-10 (주) 어펙트로닉스 Method and apparatus for providing moving picture using 3d user avatar
KR20140092837A (en) * 2011-12-15 2014-07-24 엘지전자 주식회사 Haptic transmission method and mobile terminal for same
KR20190072067A (en) * 2017-12-15 2019-06-25 주식회사 하이퍼커넥트 Terminal and server providing a video call service
JP2019122034A (en) * 2017-12-28 2019-07-22 ハイパーコネクト インコーポレイテッド Terminal providing video call service
KR20210149674A (en) * 2019-03-13 2021-12-09 주식회사 케이티 User device, call relay server and method for enabling video call with avatar

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100395491B1 (en) * 1999-08-16 2003-08-25 한국전자통신연구원 Method Of Visual Communication On Speech Translating System Based On Avatar
KR20040106844A (en) * 2003-06-11 2004-12-18 이응주 System and method for offer physiognomy information and the other sex information using on-line analysis face physiognomy
KR100700872B1 (en) * 2006-02-07 2007-03-29 엘지전자 주식회사 Method for displaying 3 dimension private character image of mobile terminal and the mobile terminal thereof
KR20080079403A (en) * 2007-02-27 2008-09-01 (주)케이티에프테크놀로지스 A terminal for image communication and method of embodying lip-synch to an avatar in the same
KR20080085313A (en) * 2007-03-19 2008-09-24 엘지전자 주식회사 Method for controlling image, and terminal therefor
KR20090001202A (en) * 2007-06-29 2009-01-08 삼성전자주식회사 Digital picture frame

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100395491B1 (en) * 1999-08-16 2003-08-25 한국전자통신연구원 Method Of Visual Communication On Speech Translating System Based On Avatar
KR20040106844A (en) * 2003-06-11 2004-12-18 이응주 System and method for offer physiognomy information and the other sex information using on-line analysis face physiognomy
KR100700872B1 (en) * 2006-02-07 2007-03-29 엘지전자 주식회사 Method for displaying 3 dimension private character image of mobile terminal and the mobile terminal thereof
KR20080079403A (en) * 2007-02-27 2008-09-01 (주)케이티에프테크놀로지스 A terminal for image communication and method of embodying lip-synch to an avatar in the same
KR20080085313A (en) * 2007-03-19 2008-09-24 엘지전자 주식회사 Method for controlling image, and terminal therefor
KR20090001202A (en) * 2007-06-29 2009-01-08 삼성전자주식회사 Digital picture frame

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101306221B1 (en) * 2011-09-23 2013-09-10 (주) 어펙트로닉스 Method and apparatus for providing moving picture using 3d user avatar
KR20140092837A (en) * 2011-12-15 2014-07-24 엘지전자 주식회사 Haptic transmission method and mobile terminal for same
US9678570B2 (en) 2011-12-15 2017-06-13 Lg Electronics Inc. Haptic transmission method and mobile terminal for same
KR20190072067A (en) * 2017-12-15 2019-06-25 주식회사 하이퍼커넥트 Terminal and server providing a video call service
US10949654B2 (en) 2017-12-15 2021-03-16 Hyperconnect, Inc. Terminal and server for providing video call service
JP2019122034A (en) * 2017-12-28 2019-07-22 ハイパーコネクト インコーポレイテッド Terminal providing video call service
US10560659B2 (en) 2017-12-28 2020-02-11 Hyperconnect, Inc. Terminal for providing video call service
US10939071B2 (en) 2017-12-28 2021-03-02 Hyperconnect, Inc. Terminal for providing video call service
KR20210149674A (en) * 2019-03-13 2021-12-09 주식회사 케이티 User device, call relay server and method for enabling video call with avatar

Similar Documents

Publication Publication Date Title
US11503377B2 (en) Method and electronic device for processing data
CN107835464B (en) Video call window picture processing method, terminal and computer readable storage medium
KR101205189B1 (en) System and method for delivering feeling during video call
US9792602B2 (en) Apparatus and method for providing emotion expression service in mobile communication terminal
KR101170338B1 (en) Method For Video Call And System thereof
CN107231470B (en) Image processing method, mobile terminal and computer readable storage medium
US8466950B2 (en) Method and apparatus for video call in a mobile terminal
US10142588B2 (en) Information-processing device, communication system, storage medium, and communication method
US20040235531A1 (en) Portable terminal, and image communication program
US20100098341A1 (en) Image recognition device for displaying multimedia data
KR20130022434A (en) Apparatus and method for servicing emotional contents on telecommunication devices, apparatus and method for recognizing emotion thereof, apparatus and method for generating and matching the emotional contents using the same
CN110602401A (en) Photographing method and terminal
KR101979650B1 (en) Server and operating method thereof
KR20110020131A (en) System and method for delivering feeling during video call
CN107818787B (en) Voice information processing method, terminal and computer readable storage medium
KR20210060196A (en) Server, method and user device for providing avatar message service
CN108683850A (en) A kind of shooting reminding method and mobile terminal
KR20110041065A (en) System, server, terminal and method for delivering haptic contents during video call
KR101274471B1 (en) System and method for emotion transmitting during video communication
KR101179465B1 (en) Video call system and method for delivering feeling of far end talker
KR101337229B1 (en) System, Haptic Server and Method for Providing of Emotional State of User In Video Telephony
CN111914785B (en) Method, device and storage medium for improving definition of face image
KR102058190B1 (en) Apparatus for providing character service in character service system
CN106896917B (en) Method and device for assisting user in experiencing virtual reality and electronic equipment
KR101189052B1 (en) System and method for delivering feeling during video call

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E601 Decision to refuse application