KR20190052584A - Terminal and server providing a video call service - Google Patents

Terminal and server providing a video call service Download PDF

Info

Publication number
KR20190052584A
KR20190052584A KR1020170182782A KR20170182782A KR20190052584A KR 20190052584 A KR20190052584 A KR 20190052584A KR 1020170182782 A KR1020170182782 A KR 1020170182782A KR 20170182782 A KR20170182782 A KR 20170182782A KR 20190052584 A KR20190052584 A KR 20190052584A
Authority
KR
South Korea
Prior art keywords
user
terminal
video call
call service
evaluation information
Prior art date
Application number
KR1020170182782A
Other languages
Korean (ko)
Other versions
KR102120871B1 (en
Inventor
안상일
최혁
Original Assignee
주식회사 하이퍼커넥트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 하이퍼커넥트 filed Critical 주식회사 하이퍼커넥트
Priority to US16/198,161 priority Critical patent/US10554698B2/en
Publication of KR20190052584A publication Critical patent/KR20190052584A/en
Application granted granted Critical
Publication of KR102120871B1 publication Critical patent/KR102120871B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • G06K9/00221
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72522
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Abstract

Disclosed are a terminal for providing a video call service, and a server for providing the video call service based on a user′s reputation index. According to the present invention, the server comprises: a communication interface performing communication with a terminal supporting a video call; a storage; a processor; and a memory storing instructions capable of being executed by the processor. The processor receives evaluation information of a user using a video call service from the terminal, updates cumulative evaluation information and a reputation index stored in the storage by corresponding to a user′ account based on the received evaluation information, and manages the video call service based on the updated reputation index.

Description

영상 통화 서비스를 제공하는 단말 및 서버{TERMINAL AND SERVER PROVIDING A VIDEO CALL SERVICE} TECHNICAL FIELD [0001] The present invention relates to a terminal and a server for providing a video call service,

영상 통화 서비스를 제공하는 단말과 영상 통화 서비스를 제공하는 서버에 관한 것이다.To a terminal providing a video call service and a server providing a video call service.

과학 기술의 발전에 따라, 대부분의 사람들이 스마트 폰, 태블릿 PC와 같은 단말을 보유하게 되었다. 이와 같은 단말은 영상을 촬영하고, 재생할 수 있으며, 다른 단말과 통신을 수행하여 정보를 주고받거나, 영상 통화(video call)를 지원할 수 있다. With the development of science and technology, most people have terminals such as smart phones and tablet PCs. Such a terminal can photograph and reproduce images, communicate with other terminals to exchange information, and support video calls.

한편, 영상 통화를 기반으로 하는 다양한 종류의 영상 통화 서비스가 존재한다. 예를 들어, 랜덤 영상 채팅 서비스는 랜덤 영상 채팅 서비스 이용 요청을 한 사용자의 단말을 랜덤 영상 채팅 서비스를 이용하는 사용자들 중 무작위로 선정된 사용자의 단말과 연결시켜주는 서비스이다.Meanwhile, various types of video call services based on video calls exist. For example, the random video chat service is a service for connecting a terminal of a user who requests a random video chat service use to a terminal of a randomly selected user among users using a random video chat service.

영상 통화 서비스의 사용자의 제스처에 대응되는 평가 정보를 생성하여 영상 통화 서비스를 제공하는 단말과 단말로부터 수신된 평가 정보에 기초한 사용자의 평판 지수에 기초하여 영상 통화 서비스를 제공하는 서버를 제공하는 것이다.There is provided a server for providing a video call service based on rating information of a user based on evaluation information received from a terminal and a terminal providing a video call service by generating evaluation information corresponding to a gesture of a user of the video call service.

제 1 측면에 따른 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션은, 제 1 단말에서, 제 1 사용자의 상기 제 1 단말과 영상 통화의 상대방인 제 2 사용자의 제 2 단말 간의 영상 통화 세션을 수립하는 단계; 상기 제 1 사용자를 촬영한 제 1 영상 스트림 또는 상기 제 2 단말로부터 수신된, 상기 제 2 사용자를 촬영한 제 2 영상 스트림에서 상기 제 1 사용자 또는 상기 제 2 사용자의 제스처를 검출하는 단계; 상기 검출된 제스처에 기초하여, 상기 검출된 제스처를 취한 사용자의 상대방에 대한 평가 정보를 생성하는 단계; 및 상기 생성된 평가 정보를 영상 통화 서비스를 제공하는 서버로 전송하는 단계;를 포함하는 영상 통화 서비스를 제공하는 방법을 수행할 수 있다.An application stored in a computer-readable storage medium according to the first aspect includes the steps of establishing a video call session between a first terminal of a first user and a second terminal of a second user, Detecting a gesture of the first user or the second user in a first video stream of the first user or a second video stream of the second user, the second video stream being received from the second terminal; Generating evaluation information on a counterpart of a user who has taken the detected gesture based on the detected gesture; And transmitting the generated evaluation information to a server for providing a video call service.

제 2 측면에 따른 영상 통화 서비스를 제공하는 서버는, 영상 통화를 지원하는 단말과 통신을 수행하는 통신 인터페이스; 스토리지; 프로세서; 및 상기 프로세서에 의해 실행 가능한 명령어들을 저장하는 메모리;를 포함하고, 상기 프로세서는, 상기 명령어들을 실행함으로써, 상기 단말로부터 영상 통화 서비스를 이용하는 사용자에 대한 평가 정보를 수신하고, 상기 수신된 평가 정보에 기초하여, 상기 스토리지에 저장된, 상기 사용자의 계정에 대응하는 누적 평가 정보와 평판 지수를 업데이트하며, 상기 업데이트된 평판 지수에 기초하여, 상기 영상 통화 서비스를 관리한다. A server for providing a video call service according to a second aspect includes: a communication interface for performing communication with a terminal supporting a video call; storage; A processor; And a memory for storing instructions executable by the processor, wherein the processor is configured to receive the evaluation information for the user using the video call service from the terminal by executing the instructions, Updates cumulative evaluation information and reputation index corresponding to the user's account stored in the storage, and manages the video call service based on the updated reputation index.

제 3 측면에 따른 프로세서에 의해 실행 가능한 명령어들이 저장된 비일시적 컴퓨터 판독 가능 저장매체는, 제 1 사용자의 상기 제 1 단말과 영상 통화의 상대방인 제 2 사용자의 제 2 단말 간의 영상 통화 세션을 수립하는 명령어들; 상기 제 1 사용자를 촬영한 제 1 영상 스트림 또는 상기 제 2 단말로부터 수신된, 상기 제 2 사용자를 촬영한 제 2 영상 스트림에서 상기 제 1 사용자 또는 상기 제 2 사용자의 제스처를 검출하는 명령어들; 상기 검출된 제스처에 기초하여, 상기 검출된 제스처를 취한 사용자의 상대방에 대한 평가 정보를 생성하는 명령어들; 및 상기 생성된 평가 정보를 영상 통화 서비스를 제공하는 서버로 전송하는 명령어들;을 포함한다.The non-volatile computer readable storage medium having stored thereon instructions executable by the processor according to the third aspect establishes a video call session between the first terminal of the first user and the second terminal of the second user, Commands; Instructions for detecting a gesture of the first user or the second user in a first video stream captured by the first user or a second video stream captured from the second terminal and captured by the second user; Instructions for generating rating information for a party of a user who has taken the detected gesture based on the detected gesture; And transmitting the generated evaluation information to a server providing a video call service.

도 1은 영상 통화 서비스가 제공되는 환경을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 단말의 구성을 나타낸 블록도이다.
도 3은 일 실시예에 따른 영상 통화 서비스를 제공하는 서버의 구성을 나타낸 블록도이다.
도 4는 다른 실시예에 따른 영상 통화 서비스를 제공하는 서버가 복수 개의 분산 서버들로 구현된 모습을 설명하기 위한 도면이다.
도 5는 일 실시예에 따라 제 1 사용자의 제스처에 기초하여 제 2 사용자에 대한 평가 정보를 생성하는 과정를 설명하기 위한 도면이다.
도 6은 일 실시예에 따라 제 2 사용자의 제스처에 기초하여 제 1 사용자에 대한 평가 정보를 생성하는 과정를 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 영상 통화 서비스를 제공하는 서버의 스토리지에 저장된 정보의 종류를 설명하기 위한 도면이다.
도 8은 일 실시예에 따라 단말로부터 수신된 평가 정보에 기초한 사용자의 평판 지수에 기초하여 영상 통화 서비스를 관리하는 과정을 설명하기 위한 도면이다.
도 9는 일 실시예에 따라 영상 통화 서비스의 사용자의 제스처에 대응되는 평가 정보를 생성하여 영상 통화 서비스를 제공하는 방법을 설명하기 위한 흐름도이다.
도 10은 일 실시예에 따라 사용자의 평판 지수에 기초하여 영상 통화 서비스를 제공하는 방법을 설명하기 위한 흐름도이다.
1 is a diagram illustrating an environment in which a video call service is provided.
2 is a block diagram illustrating a configuration of a UE according to an exemplary embodiment of the present invention.
3 is a block diagram illustrating a configuration of a server for providing a video call service according to an exemplary embodiment of the present invention.
4 is a diagram for explaining how a server providing a video call service according to another embodiment is implemented by a plurality of distributed servers.
5 is a diagram illustrating a process of generating evaluation information for a second user based on a gesture of a first user according to an embodiment.
6 is a diagram for explaining a process of generating evaluation information for a first user based on a gesture of a second user according to an embodiment.
7 is a view for explaining the types of information stored in a storage of a server providing a video call service according to an exemplary embodiment.
8 is a diagram for explaining a process of managing a video call service based on a reputation index of a user based on evaluation information received from a terminal according to an embodiment.
9 is a flowchart illustrating a method of generating evaluation information corresponding to a gesture of a user of a video call service and providing a video call service according to an exemplary embodiment of the present invention.
FIG. 10 is a flowchart illustrating a method of providing a video call service based on a reputation index of a user according to an embodiment.

이하에서는 도면을 참조하여 다양한 실시예들을 상세히 설명한다. 이하에서 설명되는 실시예들은 여러 가지 상이한 형태로 변형되어 실시될 수도 있다. 실시예들의 특징을 보다 명확히 설명하기 위하여 이하의 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서 자세한 설명은 생략한다.Hereinafter, various embodiments will be described in detail with reference to the drawings. The embodiments described below may be modified and implemented in various different forms. In order to more clearly describe the features of the embodiments, a detailed description of known matters to those skilled in the art will be omitted.

한편, 본 명세서에서 어떤 구성이 다른 구성과 "연결"되어 있다고 할 때, 이는 '직접적으로 연결'되어 있는 경우뿐 아니라, '그 중간에 다른 구성을 사이에 두고 연결'되어 있는 경우도 포함한다. 또한, 어떤 구성이 다른 구성을 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한, 그 외 다른 구성을 제외하는 것이 아니라 다른 구성들 더 포함할 수도 있다는 것을 의미한다.In the present specification, when a configuration is referred to as being " connected " with another configuration, it includes not only a case of being directly connected, but also a case of being connected with another configuration in between. Also, when an element is referred to as " including " another element, it is to be understood that the element may include other elements as well as other elements.

또한, 본 명세서에서 사용되는 '제 1' 또는 '제 2' 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용할 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. In addition, terms including ordinals such as 'first' or 'second' used in this specification can be used to describe various elements, but the elements should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.

본 실시예들은 영상 통화 서비스를 제공하는 단말과 영상 통화 서비스를 제공하는 서버에 관한 것으로서 이하의 실시예들이 속하는 기술 분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서는 자세한 설명을 생략한다.The present embodiments are directed to a terminal providing a video call service and a server providing a video call service, and a detailed description of widely known matters to those skilled in the art will be omitted. do.

도 1은 영상 통화 서비스가 제공되는 환경을 설명하기 위한 도면이다.1 is a diagram illustrating an environment in which a video call service is provided.

영상 통화 서비스는 복수의 사용자들이 각자의 단말을 이용하여 자신의 영상을 상대방에게 전송하고 상대방의 영상을 수신함으로써 의사를 주고받을 수 있는 서비스를 의미한다. 영상 통화 서비스를 이용하는 사용자들은 각자의 단말을 통해, 영상과 음성을 주고받을 수 있으며, 채팅 기능을 통해 텍스트를 주고 받을 수도 있다. 영상 통화 서비스를 이용하려는 사용자는 상대방을 직접 지정하거나, 영상 통화 서비스를 제공하는 서버에서 랜덤 또는 소정의 방식에 따라 상대방을 지정해줌으로써, 상대방과 영상 통화 서비스를 이용할 수 있다. A video call service means a service in which a plurality of users transmit their images to each other using their own terminals and receive and receive images of the other party. Users who use the video call service can send and receive video and voice through their terminals, and can send and receive text through the chat function. A user who wishes to use the video call service can designate the other party directly or use the video call service with the other party by designating the other party in a random or predetermined manner in a server providing the video call service.

도 1을 참조하면, 단말(100)이 통신망을 통해 영상 통화 서비스를 제공하는 서버(200)와 연결되어 있다. 서버(200)는 복수의 사용자들이 각자의 단말(100)을 이용하여 영상 통화 서비스를 이용할 수 있도록 도와주는 각종 프로그램 또는 애플리케이션과 데이터를 저장할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 근거리 통신 및 원격지 통신을 모두 수행할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 통신망을 통해 복수의 단말(100)들과 연결될 수 있다. 단말(100)은 영상 통화 서비스를 제공하는 서버(200)와의 연결에 이용될 수 있는 다양한 종류의 사용자 단말이 될 수 있다. 예를 들어, 단말(100)은 영상 통화 서비스를 제공하는 서버(200)와 통신을 수행할 수 있는 장치로서, 스마트 왓치와 같은 웨어러블 장치, 스마트 폰, 태블릿 PC, 랩톱 컴퓨터와 같은 모바일 장치, 데스크톱 컴퓨터와 같은 스테이셔너리 장치 등이 될 수 있다. 또한, 단말(100)은 영상 통화 서비스를 통해 연결되는 사용자들 간 영상 통화가 이루어질 수 있도록, 영상을 촬영하고 재생할 수 있는, 영상 통화를 지원하는 영상 통화 장치일 수 있다.Referring to FIG. 1, a terminal 100 is connected to a server 200 providing a video call service through a communication network. The server 200 may store various programs or applications and data that help a plurality of users to use the video call service using their respective terminals 100. The server 200 providing the video call service can perform both the local area communication and the remote area communication. The server 200 providing a video call service can be connected to a plurality of terminals 100 through a communication network. The terminal 100 may be various types of user terminals that can be used for connection with the server 200 providing the video call service. For example, the terminal 100 is a device capable of performing communication with a server 200 that provides a video call service, and may be a wearable device such as SmartWatch, a mobile device such as a smart phone, a tablet PC, a laptop computer, A stance unit such as a computer, or the like. In addition, the terminal 100 may be a video communication device supporting video communication, which can capture and reproduce video images so that video communication can be performed between users connected through a video communication service.

도 2는 일 실시예에 따른 단말(100)의 구성을 나타낸 블록도이다.2 is a block diagram illustrating a configuration of a terminal 100 according to an embodiment.

도 2를 참고하면, 단말(100)은 메모리(110), 프로세서(120), 사용자 인터페이스(130), 통신 인터페이스(140), 음성 및 영상 입력부(150)를 포함할 수 있다. 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 도 2에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 알 수 있다.2, the terminal 100 may include a memory 110, a processor 120, a user interface 130, a communication interface 140, and a voice and video input unit 150. It will be understood by those skilled in the art that other general-purpose components other than the components shown in FIG. 2 may be further included.

메모리(110)는 소프트웨어 또는 프로그램을 저장할 수 있다. 예를 들어, 메모리(110)는 애플리케이션, 애플리케이션 프로그래밍 인터페이스(API) 등과 같은 프로그램 및 다양한 종류의 데이터를 저장할 수 있다. 메모리(110)는 프로세서(120)에 의해 실행 가능한 명령어들을 저장할 수 있다. The memory 110 may store software or programs. For example, memory 110 may store programs such as applications, application programming interfaces (APIs), and the like, as well as various types of data. Memory 110 may store instructions executable by processor 120.

프로세서(120)는 메모리(110)에 저장된 명령어들을 실행할 수 있다. 프로세서(120)는 메모리(110)에 저장된 각종 프로그램, 컨텐츠, 데이터를 이용하거나, 또는 새로운 프로그램, 컨텐츠, 데이터를 메모리(110)에 저장할 수도 있다. The processor 120 may execute instructions stored in the memory 110. The processor 120 may use various programs, contents, and data stored in the memory 110, or may store new programs, contents, and data in the memory 110.

프로세서(120)는 메모리(110)에 액세스하여, 메모리(110)에 저장된 O/S를 이용하여 부팅을 수행할 수 있다. 프로세서(120)는 메모리(110)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행할 수 있다. 예를 들어, 프로세서(120)는 메모리(110)에 저장된 각종 프로그램, 컨텐츠, 데이터를 이용하여, 디스플레이(136)에 소정의 화면을 표시할 수 있다. 프로세서(120)는 디스플레이(136)의 일 영역에 대한 사용자 조작이 이루어지면, 사용자의 조작에 대응되는 제어 동작을 수행할 수 있다. The processor 120 may access the memory 110 and perform booting using the O / S stored in the memory 110. [ The processor 120 may perform various operations using various programs stored in the memory 110, contents, data, and the like. For example, the processor 120 may display a predetermined screen on the display 136 using various programs, contents, and data stored in the memory 110. The processor 120 may perform a control operation corresponding to a user's operation when a user operation is performed on one area of the display 136. [

프로세서(120)는 그래픽 처리에 특화된 GPU(Graphic Processing Unit)를 포함할 수 있다. GPU는 단말(100)의 부팅이 완료되면, 디스플레이(136)의 영역에 사용자 인터페이스 화면을 디스플레이한다. 구체적으로는, GPU는 컨텐츠, 아이콘, 메뉴 등과 같은 다양한 객체를 포함하는 영상 통화 레이아웃이 표시된 화면을 생성할 수 있다. GPU는 화면의 영상 통화 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산할 수 있다. 그리고, GPU는 연산된 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성할 수 있다. GPU에서 생성된 화면은 디스플레이(136)로 제공되어, 디스플레이(136)의 각 영역에 각각 표시될 수 있다.The processor 120 may include a GPU (Graphic Processing Unit) specialized for graphics processing. The GPU displays the user interface screen in the area of the display 136 when the booting of the terminal 100 is completed. Specifically, the GPU can generate a screen displaying a video call layout including various objects such as contents, icons, menus, and the like. The GPU can calculate property values such as coordinate value, shape, size, color, etc., which each object will be displayed according to the video call layout of the screen. Then, the GPU can generate screens of various layouts including objects based on the computed attribute values. The screens generated in the GPU may be provided to the display 136 and displayed in each area of the display 136, respectively.

한편, 프로세서(120)는 비디오 프로세서와 오디오 프로세서를 포함할 수 있다. 프로세서(120)는 비디오 프로세서와 오디오 프로세서를 제어하여, 통신 인터페이스(140)를 통해 수신된 영상 스트림 또는, 메모리(110)에 저장된 영상 스트림에 포함된 비디오 데이터 또는 오디오 데이터를 처리할 수 있다.Meanwhile, the processor 120 may include a video processor and an audio processor. The processor 120 may control the video processor and the audio processor to process the video stream received through the communication interface 140 or the video data or audio data contained in the video stream stored in the memory 110. [

사용자 인터페이스(130)는 입력부(131)와 출력부(135)를 포함할 수 있다.The user interface 130 may include an input unit 131 and an output unit 135.

입력부(131)는 사용자로부터 다양한 명령어를 입력받을 수 있다. 입력부(131)는 키패드(132), 터치 패널(133) 및 펜 인식 패널(134) 중 적어도 하나를 포함할 수 있다. The input unit 131 can receive various commands from the user. The input unit 131 may include at least one of a keypad 132, a touch panel 133, and a pen recognition panel 134.

키패드(132)는 단말(100)의 본체 외관의 전면부나 측면부, 배면부 등의 다양한 영역에 형성된 기계적 버튼, 휠 등과 같은 다양한 유형의 키를 포함할 수 있다.The keypad 132 may include various types of keys, such as mechanical buttons, wheels, etc., formed in various areas such as the front or side portions of the body exterior of the terminal 100,

터치 패널(133)은 사용자의 터치 입력을 감지하고, 감지된 터치 신호에 해당하는 터치 이벤트 값을 출력할 수 있다. 터치 패널(133)이 표시 패널과 결합하여 터치 스크린을 구성한 경우, 터치 스크린은 정전식이나, 감압식, 압전식 등과 같은 다양한 유형의 터치 센서로 구현될 수 있다. The touch panel 133 senses the touch input of the user and can output a touch event value corresponding to the sensed touch signal. When the touch panel 133 is combined with the display panel to constitute a touch screen, the touch screen may be implemented by various types of touch sensors such as an electrostatic type, a pressure sensitive type, a piezoelectric type, and the like.

펜 인식 패널(134)은 사용자의 터치용 펜(예컨대, 스타일러스 펜(stylus pen))의 운용에 따른 펜의 근접 입력 또는 터치 입력을 감지하고 감지된 펜 근접 이벤트 또는 펜 터치 이벤트를 출력할 수 있다. 펜 인식 패널(134)은, 예로, EMR 방식으로 구현될 수 있으며, 펜의 근접 또는 터치에 의한 전자기장의 세기 변화에 따라 터치 또는 근접 입력을 감지할 수 있다. 펜 인식 패널(134)은 그리드 구조를 가지는 전자 유도 코일 센서와 전자 유도 코일 센서의 각 루프 코일에 순차적으로 소정의 주파수를 가지는 교류 신호를 제공하는 전자 신호 처리부를 포함하여 구성될 수 있다. The pen recognition panel 134 senses proximity input or touch input of the pen according to the operation of the user's touch pen (for example, a stylus pen) and outputs a sensed pen proximity event or a pen touch event . The pen recognition panel 134 may be implemented, for example, by the EMR method, and may detect the touch or proximity input according to the proximity of the pen or the change in intensity of the electromagnetic field due to the touch. The pen recognition panel 134 may include an electromagnetic induction coil sensor having a grid structure and an electronic signal processing unit for sequentially providing an AC signal having a predetermined frequency to each loop coil of the electromagnetic induction coil sensor.

출력부(135)는 디스플레이(136), 스피커(137)를 포함할 수 있다. The output unit 135 may include a display 136 and a speaker 137.

디스플레이(136)는 표시 패널 및 표시 패널을 제어하는 컨트롤러를 포함할 수 있다. 표시 패널은 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, AM-OLED(Active-Matrix Organic Light-Emitting Diode), PDP(Plasma Display Panel) 등과 같은 다양한 방식으로 구현될 수 있다. 표시 패널은 유연하게(flexible) 또는 착용할 수 있게(wearable) 구현될 수 있다. 디스플레이(136)는 입력부(131)의 터치 패널(133)과 결합되어 터치 스크린으로 제공될 수 있다. The display 136 may include a display panel and a controller for controlling the display panel. The display panel can be implemented in various ways such as an LCD (Liquid Crystal Display), an OLED (Organic Light Emitting Diodes) display, an AM-OLED (Active-Matrix Organic Light-Emitting Diode), a PDP (Plasma Display Panel) The display panel may be flexible or wearable. The display 136 may be coupled to the touch panel 133 of the input unit 131 and provided as a touch screen.

스피커(137)는 오디오 데이터에 기초하여 소리를 출력할 수 있다. 예를 들어, 스피커(137)는 영상 스트림에 포함된 오디오 데이터에 따라, 사용자의 음성을 출력할 수 있다.The speaker 137 can output sound based on the audio data. For example, the speaker 137 can output the user's voice according to the audio data included in the video stream.

통신 인터페이스(140)는 다양한 유형의 통신방식에 따라 다양한 유형의 외부 기기와 통신을 수행할 수 있다. 통신 인터페이스(140)는 와이파이 칩, 블루투스 칩, NFC 칩, 무선통신 칩 중 적어도 하나를 포함할 수 있다. 프로세서(120)는 통신 인터페이스(140)를 이용하여 각종 외부 기기와 통신을 수행할 수 있다.The communication interface 140 can perform communication with various types of external devices according to various types of communication methods. The communication interface 140 may include at least one of a Wi-Fi chip, a Bluetooth chip, an NFC chip, and a wireless communication chip. The processor 120 can communicate with various external devices using the communication interface 140. [

와이파이 칩, 블루투스 칩은 각각 WiFi 방식, 블루투스 방식으로 통신을 수행할 수 있다. 와이파이 칩이나 블루투스 칩을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. NFC 칩은 다양한 RF-ID 주파수 대역들 중에서 13.56MHz 대역을 사용하는 NFC(Near Field Communication) 방식으로 동작하는 칩을 의미한다. 무선 통신 칩은 IEEE(Institute of Electrical and Electronics Engineers), 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), 5G(5th Generation) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다. The Wi-Fi chip and the Bluetooth chip can perform communication using the WiFi method and the Bluetooth method, respectively. When a Wi-Fi chip or a Bluetooth chip is used, various connection information such as an SSID and a session key may be transmitted and received first, and communication information may be used to transmit and receive various information. The NFC chip refers to a chip operating in the NFC (Near Field Communication) mode using the 13.56 MHz band among various RF-ID frequency bands. The wireless communication chip can communicate with various communication standards such as IEEE (Institute of Electrical and Electronics Engineers), ZigBee, 3rd Generation (3G), 3rd Generation Partnership Project (3GPP), LTE (Long Term Evolution), 5G Quot; chip "

음성 및 영상 입력부(150)는 마이크(151)와 카메라(153)를 포함할 수 있다. 마이크(151)는 사용자 음성이나 기타 소리를 입력받아 오디오 데이터로 변환할 수 있다. 프로세서(120)는 마이크(151)를 통해 입력되는 사용자 음성을 영상 통화에 이용하거나, 오디오 데이터로 변환하여 메모리(110)에 저장할 수 있다. 카메라(153)는 사용자의 제어에 따라 정지 영상 또는 동영상을 촬영할 수 있다. 카메라(153)는 단말(100)의 전면 또는 후면에 위치한 카메라 모듈일 수 있다. 프로세서(120)는 마이크(151)를 통해 입력되는 음성과 카메라(153)에 의해 촬영되는 영상을 이용하여, 영상 통화를 위한 영상 스트림을 생성할 수 있다. The audio and video input unit 150 may include a microphone 151 and a camera 153. The microphone 151 can receive a user voice or other sound and convert it into audio data. The processor 120 may use the user's voice input through the microphone 151 for video communication or convert the audio data into the audio data and store the audio data in the memory 110. [ The camera 153 can take a still image or a moving image under the control of the user. The camera 153 may be a camera module located on the front or back of the terminal 100. The processor 120 may generate a video stream for video communication using a voice input through the microphone 151 and an image captured by the camera 153. [

한편, 단말(100)은 모션 제어 모드나 음성 제어 모드로 동작할 수 있다. 모션 제어 모드로 동작하는 경우, 프로세서(120)는 카메라(153)를 활성화시켜 사용자를 촬영하고, 사용자의 모션 변화를 추적하여 그에 대응되는 제어 동작을 수행할 수 있다. 음성 제어 모드로 동작하는 경우, 프로세서(120)는 마이크(151)를 통해 입력된 사용자 음성을 분석하고, 분석된 사용자 음성에 따라 제어 동작을 수행할 수 있다. Meanwhile, the terminal 100 can operate in a motion control mode or a voice control mode. When operating in the motion control mode, the processor 120 activates the camera 153 to photograph a user, track a user's motion change, and perform a corresponding control operation. When operating in the voice control mode, the processor 120 analyzes the user voice input through the microphone 151 and performs a control operation according to the analyzed user voice.

전술한 단말(100)의 구성 요소들의 명칭은 달라질 수 있다. 또한, 본 개시에 따른 단말(100)은 전술한 구성요소들 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 단말(100)은 전술한 구성요소들 중 적어도 하나를 이용하여, 다음과 같은 동작을 수행할 수 있다.The names of the components of the terminal 100 may vary. In addition, the terminal 100 according to the present disclosure may be configured to include at least one of the above-described components, and some components may be omitted or further include other additional components. The terminal 100 may perform the following operations using at least one of the above-described components.

도 3은 일 실시예에 따른 영상 통화 서비스를 제공하는 서버(200)의 구성을 나타낸 블록도이다. 3 is a block diagram illustrating a configuration of a server 200 for providing a video call service according to an exemplary embodiment of the present invention.

도 3을 참조하면, 영상 통화 서비스를 제공하는 서버(200)는 메모리(210), 프로세서(220), 스토리지(230), 통신 인터페이스(240)을 포함한다. 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 도 3에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 알 수 있다. 도 3의 블록도의 각 구성요소는 영상 통화 서비스를 제공하는 서버(200)의 구현 방식에 따라 분리, 추가, 또는 생략될 수 있다. 즉, 구현 방식에 따라 하나의 구성요소가 2 이상의 구성요소로 세분화되거나, 2 이상의 구성요소가 하나의 구성요소로 합쳐질 수도 있고, 일부 구성요소가 더 추가되거나 제거될 수 있다. Referring to FIG. 3, a server 200 for providing a video call service includes a memory 210, a processor 220, a storage 230, and a communication interface 240. It will be understood by those skilled in the art that other general-purpose components other than the components shown in FIG. 3 may be further included. Each component of the block diagram of FIG. 3 may be separated, added, or omitted depending on the implementation of the server 200 providing the video call service. That is, depending on the implementation method, one component may be divided into two or more components, two or more components may be combined into one component, and some components may be added or removed.

메모리(210)는 프로세서(220)에 의해 실행 가능한 명령어들을 저장할 수 있다. 메모리(210)는 소프트웨어 또는 프로그램을 저장할 수 있다. The memory 210 may store instructions executable by the processor 220. The memory 210 may store software or programs.

프로세서(220)는 메모리(210)에 저장된 명령어들을 실행할 수 있다. 프로세서(220)는 영상 통화 서비스를 제공하는 서버(200)의 전반적인 제어를 수행할 수 있다. 프로세서(220)는 통신 인터페이스(240)를 통해 수신되는 정보 및 요청 사항을 획득하고, 수신되는 정보를 스토리지(230)에 저장할 수 있다. 또한, 프로세서(220)는 수신되는 정보를 가공할 수 있다. 예를 들어, 프로세서(220)는 단말(100)로부터 수신되는 정보로부터 영상 통화 서비스에 이용되는 정보를 생성하거나, 수신되는 정보들을 관리하기 위한 가공행위를 수행하여, 스토리지(230)에 저장할 수 있다. 또한, 프로세서(220)는 단말(100)로부터 획득된 요청 사항에 대한 응답으로써, 스토리지(230)에 저장된 정보를 이용하여, 통신 인터페이스(240)를 통해 단말(100)에 영상 통화 서비스를 제공하기 위한 정보를 전송할 수 있다.The processor 220 may execute instructions stored in the memory 210. The processor 220 may perform overall control of the server 200 providing the video call service. The processor 220 may obtain information and requests received via the communication interface 240 and store the received information in the storage 230. In addition, the processor 220 may process the received information. For example, the processor 220 may generate information used for a video call service from the information received from the terminal 100, or may perform a processing operation to manage received information and store the information in the storage 230 . The processor 220 may also provide the video call service to the terminal 100 through the communication interface 240 using the information stored in the storage 230 as a response to the request obtained from the terminal 100 Can be transmitted.

스토리지(230)는 영상 통화 서비스를 제공하는 서버(200)가 영상 통화 서비스를 제공하기 위해 필요한 각종 소프트웨어 및 정보들을 저장할 수 있다. 예를 들어, 스토리지(230)는 영상 통화 서비스를 제공하는 서버(200)에서 실행되는 프로그램, 애플리케이션, 및 영상 통화 서비스에 이용되는 각종 데이터를 저장할 수 있다. The storage 230 can store various kinds of software and information necessary for the server 200 providing the video call service to provide the video call service. For example, the storage 230 may store programs, applications, and various data used in the video call service, which are executed in the server 200 providing the video call service.

스토리지(230)는 영상 통화 서비스를 이용하는 사용자별 개인 정보를 데이터베이스화하여 저장 및 관리할 수 있다. 스토리지(230)는 영상 통화 서비스를 제공하는 서버(200)에 접속하기 위한 계정별로 사용자의 신상 정보와 영상 통화 서비스에 이용되는 다양한 정보 등을 저장할 수 있다. The storage 230 can store and manage personal information for each user using the video call service in a database. The storage 230 may store personal information of a user and various information used for a video call service for each account to be connected to the server 200 providing the video call service.

통신 인터페이스(240)는 단말(100)을 포함한 외부 기기와 통신을 수행할 수 있다. 예를 들어, 영상 통화 서비스를 제공하는 서버(200)는 단말(100)로부터 영상 통화 서비스 개시 요청, 영상 통화 서비스 환경을 갖추기 위한 설정 정보에 대한 요청 등을 수신하고, 단말(100)의 요청에 대한 응답으로, 영상 통화 서비스와 관련된 모든 사항들을 제공할 수 있다.The communication interface 240 may perform communication with an external device including the terminal 100. [ For example, the server 200 providing the video call service receives a video call service start request from the terminal 100, a request for setting information for establishing a video call service environment, and the like, In response, the user can provide all the information related to the video call service.

도 4는 다른 실시예에 따라 영상 통화 서비스를 제공하는 서버(200)가 복수 개의 분산 서버들로 구현된 모습을 설명하기 위한 도면이다. 이상에서 영상 통화 서비스를 제공하는 서버(200)와 관련하여 기재된 내용은 이하 생략된 내용이라 하더라도 그대로 적용될 수 있다.FIG. 4 is a diagram for explaining how a server 200 for providing a video call service according to another embodiment is implemented with a plurality of distributed servers. The contents described in connection with the server 200 for providing the video call service can be applied as they are in the following description.

도 4를 참고하면, 영상 통화 서비스를 제공하는 분산 서버들은 부하 분산 서버(200-1)와 영상 통화 서비스를 제공하는 기능 서버들(200-3, 200-5, 200-7)로 구성될 수 있다. 부하 분산 서버(200-1)는 단말(100)과 같은 외부 기기의 영상 통화 서비스에 관한 요청이 있을 때, 영상 통화 서비스를 제공하는 기능 서버들(200-3, 200-5, 200-7) 중 임의의 서버를 결정하여 단말(100)에 연결시키거나, 영상 통화 서비스를 제공하는 기능 서버들(200-3, 200-5, 200-7)의 상태를 모니터링하여 최적의 서버를 선택하여 단말(100)에 연결시킬 수 있다.4, the distributed servers providing the video call service may include a load distribution server 200-1 and function servers 200-3, 200-5, and 200-7 for providing a video call service. have. The load balancing server 200-1 includes function servers 200-3, 200-5, and 200-7 that provide a video call service when there is a request for a video call service of an external device such as the terminal 100, And selects an optimal server by monitoring the statuses of the function servers 200-3, 200-5, and 200-7 that provide video call services to the terminal 100, (100).

도 5는 일 실시예에 따라 제 1 사용자의 제스처에 기초하여 제 2 사용자에 대한 평가 정보를 생성하는 과정를 설명하기 위한 도면이다.5 is a diagram illustrating a process of generating evaluation information for a second user based on a gesture of a first user according to an embodiment.

도 5를 참조하면, 제 1 사용자와 영상 통화의 상대방인 제 2 사용자는 각각 제 1 단말(100-1)과 제 2 단말(100-2)을 통해 영상 통화를 할 수 있다. 제 1 단말(100-1)과 제 2 단말(100-2)은 영상 통화 서비스 제공자 측에서 제공한 영상 통화 서비스를 제공하기 위한 애플리케이션이 설치되어 있을 수 있다. 제 1 단말(100-1)과 제 2 단말(100-2)은 영상 통화 서비스를 제공하기 위한 애플리케이션을 실행하여, 영상 통화 서비스를 제공하는 서버(200)에 연결될 수 있고, 서버(200)에서 제공하는 영상 통화 서비스를 받을 수 있다. Referring to FIG. 5, the second user, who is the other party of the video call with the first user, can make a video call through the first terminal 100-1 and the second terminal 100-2, respectively. The first terminal 100-1 and the second terminal 100-2 may be provided with an application for providing a video call service provided by the video call service provider. The first terminal 100-1 and the second terminal 100-2 can be connected to a server 200 providing a video call service by executing an application for providing a video call service, And can receive the video call service provided.

제 1 단말(100-1)은 영상 통화 서비스를 제공하는 서버(200)에 영상 통화 서비스의 이용 요청을 전송할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 1 단말(100-1)의 영상 통화 서비스의 이용 요청에 응답하여, 영상 통화의 상대방인 제 2 사용자의 제 2 단말(100-2)과 영상 통화가 이루어질 수 있도록, 영상 통화에 요구되는 정보들을 제 1 단말(100-1)에 제공할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 1 단말(100-1)의 영상 통화 서비스의 이용 요청에 따라, 영상 통화의 상대방을 랜덤으로 선정하거나, 소정의 규칙에 따라 선정하거나, 제 1 사용자가 지정한 상대방으로 선정할 수 있다. 제 1 사용자의 제 1 단말(100-1)과 제 2 사용자의 제 2 단말(100-2)은 영상 통화를 위해 상호 간에 영상 통화 세션을 수립할 수 있다. The first terminal 100-1 may transmit a request for using the video call service to the server 200 providing the video call service. In response to a request for use of the video call service of the first terminal 100-1, the server 200 providing the video call service transmits a video call request to the second terminal 100-2 of the second user, It is possible to provide the first terminal 100-1 with the information required for the video call so that the first terminal 100-1 can perform the video call. The server 200 providing the video call service may randomly select the other party of the video call or select it according to a predetermined rule in accordance with the use request of the video call service of the first terminal 100-1, Can be selected as the designated party. The first terminal 100-1 of the first user and the second terminal 100-2 of the second user can establish a video call session with each other for video call.

제 1 단말(100-1)과 제 2 단말(100-2) 간의 영상 통화 세션이 수립되면, 제 1 사용자를 촬영한 제 1 영상 스트림은 제 1 단말(100-1)에서 제 2 단말(100-2)로 전송되고, 제 2 사용자를 촬영한 제 2 영상 스트림은 제 2 단말(100-2)에서 제 1 단말(100-1)로 전송될 수 있다. 제 1 단말(100-1)은 제 2 단말(100-2)로부터 제 2 영상 스트림을 수신하고, 제 2 단말(100-2)은 제 1 단말(100-1)로부터 제 1 영상 스트림을 수신할 수 있다.When a video call session is established between the first terminal 100-1 and the second terminal 100-2, the first video stream captured by the first user is transmitted from the first terminal 100-1 to the second terminal 100-1 -2), and the second video stream captured by the second user may be transmitted from the second terminal 100-2 to the first terminal 100-1. The first terminal 100-1 receives the second video stream from the second terminal 100-2 and the second terminal 100-2 receives the first video stream from the first terminal 100-1 can do.

제 1 단말(100-1)은 제 1 사용자를 촬영한 제 1 영상 스트림 또는 제 2 단말로부터 수신된, 제 2 사용자를 촬영한 제 2 영상 스트림을 획득할 수 있다. 제 2 단말(100-2)은 제 2 사용자를 촬영한 제 2 영상 스트림 또는 제 1 단말(100-1)로부터 수신된, 제 1 사용자를 촬영한 제 1 영상 스트림을 획득할 수 있다. The first terminal 100-1 may acquire the first video stream of the first user or the second video stream of the second user, which is received from the second terminal. The second terminal 100-2 can acquire the second video stream captured by the second user or the first video stream captured by the first terminal 100-1 and captured by the first user.

제 1 단말(100-1)은 제 2 영상 스트림에 기초하여 제 2 사용자의 영상을 제 1 단말(100-1)의 화면에 디스플레이할 수 있고, 제 1 영상 스트림에 기초하여 제 1 사용자의 영상을 제 2 사용자의 영상이 디스플레이되는 화면 영역의 일부 영역에 디스플레이할 수 있다. 제 2 단말(100-2)은 제 1 영상 스트림에 기초하여 제 1 사용자의 영상을 제 2 단말(100-2)의 화면에 디스플레이할 수 있고, 제 2 영상 스트림에 기초하여 제 2 사용자의 영상을 제 1 사용자의 영상이 디스플레이되는 화면 영역의 일부 영역에 디스플레이할 수 있다. 도 5에 도시된 바와 같이, 제 1 단말(100-1)은 제 1 단말(100-1)의 화면에 제 2 사용자의 영상을 디스플레이함과 동시에 제 1 사용자의 영상을 제 1 단말(100-1)의 화면의 일부 영역에 더 작은 디스플레이 사이즈로 디스플레이할 수 있다. 제 2 단말(100-2)은 제 2 단말(100-2)의 화면에 제 1 사용자의 영상을 디스플레이함과 동시에 제 2 사용자의 영상을 제 2 단말(100-2)의 화면의 일부 영역에 더 작은 디스플레이 사이즈로 디스플레이할 수 있다.The first terminal 100-1 can display the image of the second user on the screen of the first terminal 100-1 based on the second video stream and can display the image of the first user 100-1 on the basis of the first video stream, Can be displayed in a part of the screen area where the image of the second user is displayed. The second terminal 100-2 can display the image of the first user on the screen of the second terminal 100-2 based on the first video stream and can display the image of the second user 100-2 on the basis of the second video stream, Can be displayed in a part of the screen area where the image of the first user is displayed. 5, the first terminal 100-1 displays an image of the second user on the screen of the first terminal 100-1 and transmits the image of the first user to the first terminal 100-1, 1) in a smaller display size in a part of the screen. The second terminal 100-2 displays the image of the first user on the screen of the second terminal 100-2 and the image of the second user on the screen of the second terminal 100-2 It is possible to display with a smaller display size.

제 1 단말(100-1)과 제 2 단말(100-2)은 영상 통화 서비스를 제공하기 위한 동일한 애플리케이션이 각각 실행되고, 제 1 사용자와 제 2 사용자 간의 영상 통화가 이루어지면, 제 1 단말(100-1)과 제 2 단말(100-2) 각각의 동작 및 애플리케이션 상의 기능은 동일하므로, 이하, 제 1 단말(100-1)을 중심으로 설명하고, 제 2 단말(100-2)에 대한 설명은 생략한다.When the first terminal 100-1 and the second terminal 100-2 execute the same application for providing a video call service and a video call is made between the first user and the second user, The functions of the first terminal 100-1 and the second terminal 100-2 are the same as those of the first terminal 100-1 and the second terminal 100-2, The description is omitted.

제 1 단말(100-1)과 제 2 단말(100-2)에서 상호 간 영상 통화 서비스가 실행되면, 제 1 단말(100-1)은 제 1 사용자를 촬영한 제 1 영상 스트림에서 제 1 사용자의 제스처를 검출할 수 있다. 제 1 단말(100-1)은 제 1 단말(100-1)에서 촬영한, 제 1 영상 스트림에서 제 1 사용자의 표정, 몸짓, 및 행동 중 적어도 하나의 제스처를 검출할 수 있다.When a video call service is executed between the first terminal 100-1 and the second terminal 100-2, the first terminal 100-1 transmits the first video stream from the first video stream captured by the first user, Can be detected. The first terminal 100-1 may detect at least one gesture among the first user's facial expressions, gestures, and behaviors in the first video stream captured by the first terminal 100-1.

제스처는, 예를 들어, 사용자가 얼굴, 손, 몸 등을 이용하여 전달하는 비언어적 의사소통을 의미하며, 표정, 손짓, 몸짓 등이 될 수 있다. 사용자는 제스처를 취함으로써, 자신의 의사를 상대방에게 전달하거나, 상대방에게 어떤 반응을 유도해 낼 수 있다. 표정은, 예를 들어, 사용자가 얼굴을 통해 눈, 눈썹, 코, 입, 이마, 볼 등을 움직임으로써 자신의 생각을 나타내는 것이다. 예를 들어, 표정은 눈을 깜빡이기, 눈을 크게 만들거나 감기, 입꼬리 올리기, 입을 벌리기, 입술을 깨물기, 이마 찌푸리기 등이 될 수 있다. 손짓은, 예를 들어, 사용자가 손을 소정의 형상이나 액션을 취하게 함으로써, 몸짓은 사용자가 몸을 소정의 형상이나 액션을 취하게 함으로써 자신의 생각을 나타내는 것이다. 손짓은 OK 사인, 엄지를 위로 올리거나 아래로 내리기, 'V'자 만들기, 손을 앞뒤로 흔들기, 손을 좌우로 흔들기 등이 될 수 있다. 몸짓은 몸을 비틀기, 어깨를 들썩이기, 팔짱기기 등이 될 수 있다.The gesture means, for example, non-verbal communication that a user transmits using a face, a hand, and a body, and can be a facial expression, a hand gesture, a gesture, and the like. By taking a gesture, the user can communicate his or her intention to the other party or induce a response to the other party. The expression is, for example, a user expressing his or her thoughts by moving eyes, eyebrows, noses, mouths, foreheads, balls, etc. through the face. For example, facial expressions can be blinking eyes, making the eyes bigger or cold, raising the lips, spreading the mouth, licking the lips, frowning the forehead. The gesture, for example, allows the user to take a predetermined shape or action with the hand, and the gesture shows the user's thought by letting the user take a predetermined shape or action. A hand gesture can be an OK sign, a thumb up or down, a 'V' hand, a hand waving back and forth, and a hand waving right and left. A gesture can be a twist, a shoulder shake, or an arm-brace.

도 5를 참조하면, 제 1 단말(100-1)은 제 2 사용자가 미소 짓는 영상을 제 1 단말(100-1)의 화면에 디스플레이하고, 제 1 사용자가 웃음 짓는 영상을 제 2 사용자의 영상이 디스플레이되는 화면 영역의 좌측 하단 영역에 디스플레이하고 있다. 제 1 단말(100-1)은 제 1 사용자를 촬영한 제 1 영상 스트림에서 제 1 사용자의 웃음 짓는 표정을 검출할 수 있다. 예를 들어, 제 1 사용자가 엄지를 위로 올리는 손짓을 하면, 제 1 단말(100-1)은 제 1 영상 스트림에서 엄지를 위로 올리는 제 1 사용자의 손짓을 검출할 수도 있다. 제 1 단말(100-1)은 제 1 영상 스트림에서 제 1 사용자의 얼굴, 손, 몸에 있는 특징점에 기초하여, 제 1 영상 스트림에서 제 1 사용자의 제스쳐를 검출할 수 있다. 제 1 단말(100-1)은 실시간 또는 소정의 인터벌 간격으로 제 1 사용자의 제스쳐를 연속적으로 검출할 수 있다.Referring to FIG. 5, the first terminal 100-1 displays a smile image of the second user on the screen of the first terminal 100-1, and displays an image laughed by the first user on the screen of the second user 100-1 Is displayed in the lower left area of the screen area to be displayed. The first terminal 100-1 can detect the smile of the first user in the first video stream captured by the first user. For example, when the first user makes a gesture to raise the thumb, the first terminal 100-1 may detect the beck of the first user to raise the thumb in the first video stream. The first terminal 100-1 can detect the gesture of the first user in the first video stream based on the feature points in the face, hand, and body of the first user in the first video stream. The first terminal 100-1 may continuously detect the gesture of the first user at a real time or a predetermined interval interval.

제 1 단말(100-1)은 검출된 제 1 사용자의 제스처에 기초하여, 검출된 제스처를 취한 제 1 사용자의 상대방인 제 2 사용자에 대한 평가 정보를 생성할 수 있다. 제 1 단말(100-1)은 검출된 제스처에 대응되는 이모션 정보 또는 아이콘 정보를 제 2 사용자에 대한 평가 정보로써 생성할 수 있다.The first terminal 100-1 can generate the evaluation information for the second user, which is the opponent of the first user who took the detected gesture, based on the detected gesture of the first user. The first terminal 100-1 may generate the emotion information or the icon information corresponding to the detected gesture as the evaluation information for the second user.

제스처는 사용자가 의식적으로 또는 무의식적으로 얼굴, 손, 몸 등을 이용하여 자신의 의사를 나타낸 것이므로, 제스처 각각은 대응되는 이모션 정보가 있을 수 있다. 이모션 정보는 제스처에 따른 사용자의 감정이거나 감정을 불러일으키는 기분, 분위기, 표현 자체를 의미할 수 있다. 예를 들어, 이모션 정보는 기쁨, 행복, 분노, 즐거움, 괴로움, 슬픔, 우울함, 졸림, 따분함, 궁금함, 언짢음, 만족, 미소, 웃음, 윙크, 울음, 긍정, 부정, 좋음(수용), 싫음(거절) 등이 될 수 있다.Since the gesture is a user consciously or unconsciously expressing his or her intention using a face, a hand, or a body, each gesture may have corresponding emotion information. The emotion information may be a feeling of the user depending on the gesture, a feeling of mood, an atmosphere, or expression itself. For example, the emotion information may be a joy, happiness, anger, pleasure, bitterness, sadness, depression, drowsiness, dullness, anxiety, laughter, satisfaction, smile, laughter, wink, crying, affirmation, (Refusal).

또한, 제스처 각각은 대응되는 아이콘 정보가 있을 수 있다. 아이콘 정보는 제스처와 닮은꼴로 그 제스처를 직관적으로 묘사하거나, 제스처에 대응되는 이모션 정보를 나타내는 그림이나 기호일 수 있다. 예를 들어, 아이콘 정보는 사용자의 표정, 손짓, 몸짓 각각에 대응되는 형상이나 모양의 그림을 포함하거나, 이모션 정보를 표현하는 기호 또는 문자를 포함할 수 있다.Also, each gesture may have corresponding icon information. The icon information may be a picture or symbol that intuitively depicts the gesture in a manner similar to a gesture, or represents the information of the emotion corresponding to the gesture. For example, the icon information may include a picture of a shape or a shape corresponding to each of the user's facial expressions, hand gestures, or gestures, or may include symbols or characters representing emotion information.

도 5를 참조하면, 제 1 단말(100-1)은 검출된 제 1 사용자의 웃음 짓는 표정에 기초하여, 제 2 사용자에 대한 평가 정보를 생성할 수 있다. 예를 들어, 제 1 단말(100-1)은 제 1 사용자의 웃음 짓는 표정에 대응되는 '웃음'이라는 이모션 정보 또는 '웃는 얼굴 아이콘'이라는 아이콘 정보를 웃음 짓는 표정을 취한 제 1 사용자의 상대방인 제 2 사용자에 대한 평가 정보로써 생성할 수 있다. 다른 예를 들어, 제 1 사용자가 엄지를 위로 올리는 손짓을 하면, 제 1 단말(100-1)은 제 1 사용자의 엄지를 위로 올리는 손짓에 기초하여, 제 1 사용자의 엄지를 위로 올리는 손짓에 대응되는 '만족'이라는 이모션 정보 또는 '엄지척 아이콘'이라는 아이콘 정보를 엄지를 위로 올리는 손짓을 취한 제 1 사용자의 상대방인 제 2 사용자에 대한 평가 정로써 생성할 수도 있다. 제 1 사용자가 취한 제스처는 제 2 사용자의 태도나 행위에 대한 응답이므로, 제 1 영상 스트림에서 제 1 사용자의 제스처가 검출되면, 검출된 제스처를 유발한 제 1 사용자의 상대방인 제 2 사용자에 대한 평가 정보가 되는 것이다.Referring to FIG. 5, the first terminal 100-1 may generate evaluation information for the second user based on the laughing expression of the detected first user. For example, the first terminal 100-1 may be an opponent of the first user who takes a smiling face of the 'smile' or 'smile icon' corresponding to the smile of the first user And can be generated as evaluation information for the second user. In another example, if the first user makes a gesture to raise the thumb, the first terminal 100-1 responds to the gesture of raising the thumb of the first user on the basis of the gesture of raising the thumb of the first user Quot; thumbnail icon ", or " thumbnail icon ", which is a counterpart of the first user who has picked up the thumb, may be generated as an evaluation criterion for the second user. Since the gesture taken by the first user is a response to the attitude or behavior of the second user, if a gesture of the first user is detected in the first video stream, the gesture of the second user, It becomes evaluation information.

제 1 단말(100-1)은 제 1 단말(100-1)에서 생성된 제 2 사용자에 대한 평가 정보를 영상 통화 서비스를 제공하는 서버(200)로 전송할 수 있다. 제 1 단말(100-1)은 제 2 사용자에 대한 평가 정보를 제 2 사용자의 계정에 대응시켜 영상 통화 서비스를 제공하는 서버(200)로 전송할 수 있다. 도 5에 도시된 바와 같이, 제 1 단말(100-1)은 제 1 영상 스트림에서 검출된 제 1 사용자의 제스처에 기초하여 생성된 이모션 정보 또는 아이콘 정보를 영상 통화 서비스를 제공하는 서버(200)로 전송할 수 있다. 이와 마찬 가지로, 제 2 단말(100-2)은 제 2 영상 스트림에서 검출된 제 2 사용자의 제스처에 기초하여 생성된 이모션 정보 또는 아이콘 정보를 영상 통화 서비스를 제공하는 서버(200)로 전송할 수 있다.The first terminal 100-1 may transmit the evaluation information about the second user generated by the first terminal 100-1 to the server 200 providing the video call service. The first terminal 100-1 may transmit the evaluation information about the second user to the server 200 providing the video call service in correspondence with the account of the second user. 5, the first terminal 100-1 transmits the icon information or the icon information generated based on the gesture of the first user detected in the first video stream to the server 200 providing the video call service, Lt; / RTI > Likewise, the second terminal 100-2 can transmit the emotion information or icon information generated based on the gesture of the second user detected in the second video stream to the server 200 providing the video call service have.

한편, 제 1 단말(100-1)은 제 2 사용자에 대한 평가 정보를 제 2 단말(100-2)로 전송할 수 있다. 제 2 사용자에 대한 평가 정보가 제 1 영상 스트림에서 검출된 제 1 사용자의 제스처에 기초하여 제 1 단말(100-1)에서 생성되므로, 제 2 사용자에게 제 2 사용자가 어떤 평가를 받게 되는지 피드백을 줌으로써, 영상 통화를 하는 사용자들 간 긍정적인 대화 및 긍정적인 제스처를 유도하기 위함이다. 도 5를 참조하면, 제 1 사용자의 웃음 짓는 표정에 대응되는 '웃는 얼굴 아이콘'이라는 아이콘 정보가 제 1 단말(100-1)에서 제 2 단말(100-2)로 전송될 수 있다. 제 2 단말(100-2)로 전송된 아이콘 정보에 따라, '웃는 얼굴 아이콘'이 제 2 단말(100-2)에서 제 1 영상 스트림이 디스플레이되는 영역에 중첩하여 디스플레이될 수 있다. 이에 따라, 제 2 사용자는 영상 통화의 상대방인 제 1 사용자가 웃음 짓는 표정을 하여, 웃음 짓는 표정에 대응되는 이모션 정보 또는 아이콘 정보를 자신의 평가 정보로써 획득하였음을 알 수 있다. Meanwhile, the first terminal 100-1 may transmit the evaluation information about the second user to the second terminal 100-2. Since the evaluation information for the second user is generated in the first terminal 100-1 based on the gesture of the first user detected in the first video stream, feedback is given to the second user about what evaluation the second user will receive So as to induce positive dialogue and positive gestures among users who make video calls. Referring to FIG. 5, icon information 'smile icon' corresponding to the smile of the first user may be transmitted from the first terminal 100-1 to the second terminal 100-2. According to the icon information transmitted to the second terminal 100-2, a 'smile icon' may be displayed in the overlapping area of the second terminal 100-2 where the first video stream is displayed. Accordingly, the second user can recognize that the first user, who is the other party of the video call, makes a laughing smile and obtains the emotion information or icon information corresponding to the laughing expression as his own evaluation information.

반대로, 제 1 단말(100-1)은 제 2 단말(100-2)로부터 제 1 사용자에 대한 평가 정보를 수신하고, 수신된 제 1 사용자에 대한 평가 정보를 제 2 영상 스트림이 디스플레이되는 영역에 중첩하여 디스플레이할 수 있다. 제 1 사용자에 대한 평가 정보가 제 2 영상 스트림에서 검출된 제 2 사용자의 제스처에 기초하여 제 2 단말(100-2)에서 생성되므로, 제 1 사용자에게 제 1 사용자가 어떤 평가를 받게 되는지 피드백을 주는 것이다. 도 5를 참조하면, 제 2 사용자가 미소 짓는 경우, 제 2 단말(100-2)이 제 2 사용자를 촬영한 제 2 영상 스트림에서 제 2 사용자의 미소 짓는 표정을 검출하고, 미소 짓는 표정에 대응되는 '미소'라는 이모션 정보 또는 '스마일 아이콘'이라는 아이콘 정보를 미소 짓는 표정을 취한 제 2 사용자의 상대방인 제 1 사용자에 대한 평가 정보로써 생성할 수 있다. 제 2 사용자의 미소 짓는 표정에 대응되는 '스마일 아이콘'이라는 아이콘 정보는 제 2 단말(100-2)에서 제 1 단말(100-1)로 전송될 수 있다. 제 1 단말(100-1)로 전송된 아이콘 정보에 따라, '스마일 아이콘'이 제 1 단말(100-1)에서 제 2 영상 스트림이 디스플레이되는 영역에 중첩하여 디스플레이될 수 있다. 이에 따라, 제 1 사용자는 영상 통화의 상대방인 제 2 사용자가 미소 짓는 표정을 하여, 미소 짓는 표정에 대응되는 이모션 정보 또는 아이콘 정보를 자신의 평가 정보로써 획득하였음을 알 수 있다. On the other hand, the first terminal 100-1 receives the evaluation information on the first user from the second terminal 100-2, and transmits the evaluation information on the received first user to the area where the second video stream is displayed It is possible to superimpose them. Since the evaluation information for the first user is generated in the second terminal 100-2 based on the gesture of the second user detected in the second video stream, it is possible to give feedback to the first user on what evaluation the first user will receive Give. Referring to FIG. 5, when the second user is smiling, the second terminal 100-2 detects the smile expression of the second user in the second video stream captured by the second user, and responds to the smile expression As the evaluation information for the first user who is the other party of the second user who takes a smiling face of the 'smile' icon information or the 'smile icon' icon information. Icon information called a 'smile icon' corresponding to the smiling face of the second user may be transmitted from the second terminal 100-2 to the first terminal 100-1. According to the icon information transmitted to the first terminal 100-1, a 'smile icon' may be displayed in the area where the second video stream is displayed in the first terminal 100-1. Accordingly, the first user can recognize that the second user, who is the other party of the video call, smiles and acquires the emotion information or the icon information corresponding to the smiling face as his own evaluation information.

도 6은 일 실시예에 따라 제 2 사용자의 제스처에 기초하여 제 1 사용자에 대한 평가 정보를 생성하는 과정를 설명하기 위한 도면이다.6 is a diagram for explaining a process of generating evaluation information for a first user based on a gesture of a second user according to an embodiment.

제 1 단말(100-1)의 영상 통화 서비스의 이용 요청에 응답하여, 영상 통화의 상대방인 제 2 사용자의 제 2 단말(100-2)과 영상 통화가 이루어지는 과정은 도 5에서 설명한 내용과 동일하므로 생략한다.The process of making a video call with the second terminal 100-2 of the second user, which is the other party of the video call, in response to the use request of the video call service of the first terminal 100-1 is the same as that described in FIG. 5 Therefore, it is omitted.

도 6을 참조하면, 제 1 단말(100-1)과 제 2 단말(100-2)에서 상호 간 영상 통화 서비스가 실행되면, 제 1 단말(100-1)은 제 2 단말(100-2)로부터 수신된, 제 2 사용자를 촬영한 제 2 영상 스트림에서 제 2 사용자의 제스처를 검출할 수 있다. 제 1 단말(100-1)은 제 2 단말(100-2)에서 촬영한, 제 2 영상 스트림에서 제 2 사용자의 표정, 몸짓, 및 행동 중 적어도 하나의 제스처를 검출할 수 있다.Referring to FIG. 6, when the first terminal 100-1 and the second terminal 100-2 execute a video call service between the first terminal 100-1 and the second terminal 100-2, The gesture of the second user in the second video stream captured from the second user can be detected. The first terminal 100-1 may detect at least one gesture among the second user's facial expressions, gestures, and behaviors in the second video stream captured by the second terminal 100-2.

도 6을 참조하면, 제 1 단말(100-1)은 제 2 사용자가 미소 짓는 영상을 제 1 단말(100-1)의 화면에 디스플레이하고, 제 1 사용자가 웃음 짓는 영상을 제 2 사용자의 영상이 디스플레이되는 화면 영역의 좌측 하단 영역에 디스플레이하고 있다. 제 1 단말(100-1)은 제 2 사용자를 촬영한 제 2 영상 스트림에서 제 2 사용자의 미소 짓는 표정을 검출할 수 있다. 예를 들어, 제 2 사용자가 OK 사인 손짓을 하면, 제 1 단말(100-1)은 제 2 영상 스트림에서 OK 사인 손짓을 하는 제 2 사용자의 손짓을 검출할 수도 있다. 제 1 단말(100-1)은 제 2 영상 스트림에서 제 2 사용자의 얼굴, 손, 몸에 있는 특징점에 기초하여, 제 2 영상 스트림에서 제 2 사용자의 제스쳐를 검출할 수 있다. 제 1 단말(100-1)은 실시간 또는 소정의 인터벌 간격으로 제 2 사용자의 제스쳐를 연속적으로 검출할 수 있다.Referring to FIG. 6, the first terminal 100-1 displays a smile image of the second user on the screen of the first terminal 100-1, and displays an image laughed by the first user on the screen of the second user 100-1 Is displayed in the lower left area of the screen area to be displayed. The first terminal 100-1 can detect the smile expression of the second user in the second video stream captured by the second user. For example, if the second user makes an OK sign, the first terminal 100-1 may detect a hand gesture of the second user who performs an OK sign beacon in the second video stream. The first terminal 100-1 can detect the gesture of the second user in the second video stream based on the feature points in the face, hand, and body of the second user in the second video stream. The first terminal 100-1 can continuously detect the gesture of the second user in real time or at a predetermined interval interval.

제 1 단말(100-1)은 검출된 제 2 사용자의 제스처에 기초하여, 검출된 제스처를 취한 제 2 사용자의 상대방인 제 1 사용자에 대한 평가 정보를 생성할 수 있다. 제 1 단말(100-1)은 검출된 제스처에 대응되는 이모션 정보 또는 아이콘 정보를 제 1 사용자에 대한 평가 정보로써 생성할 수 있다.The first terminal 100-1 can generate the evaluation information for the first user who is the other party of the second user who has taken the detected gesture based on the detected gesture of the second user. The first terminal 100-1 may generate the emotion information or the icon information corresponding to the detected gesture as the evaluation information for the first user.

도 6을 참조하면, 제 1 단말(100-1)은 검출된 제 2 사용자의 미소 짓는 표정에 기초하여, 제 1 사용자에 대한 평가 정보를 생성할 수 있다. 제 1 단말(100-1)은 제 2 사용자의 미소 짓는 표정에 대응되는 '미소'라는 이모션 정보 또는 '스마일 아이콘'이라는 아이콘 정보를 미소 짓는 표정을 취한 제 2 사용자의 상대방인 제 1 사용자에 대한 평가 정보로써 생성할 수 있다. 제 2 사용자가 OK 사인 손짓을 하면, 제 1 단말(100-1)은 제 2 사용자의 OK 사인 손짓에 기초하여, 제 2 사용자의 엄지를 위로 올리는 손짓에 대응되는 '좋음(수용)'이라는 이모션 정보 또는 'OK 아이콘'이라는 아이콘 정보를 OK 사인 손짓을 취한 제 2 사용자의 상대방인 제 1 사용자에 대한 평가 정보로써 생성할 수도 있다. 제 2 사용자가 취한 제스처는 제 1 사용자의 태도나 행위에 대한 응답이므로, 제 2 영상 스트림에서 제 2 사용자의 제스처가 검출되면, 검출된 제스처를 유발한 제 2 사용자의 상대방인 제 1 사용자에 대한 평가 정보가 되는 것이다.Referring to FIG. 6, the first terminal 100-1 may generate evaluation information for the first user based on the smile expression of the detected second user. The first terminal 100-1 transmits the icon information of 'smile' or the icon information of 'smile icon' corresponding to the smile expression of the second user to the first user who is the opponent of the second user who takes a smiling face And can be generated as evaluation information. If the second user makes an OK sign, the first terminal 100-1 determines whether or not an emotion called " good (acceptable) " corresponding to a becky of raising the thumb of the second user on the basis of the hand gesture of the OK sign of the second user Information or 'OK icon' may be generated as the evaluation information for the first user, which is the opponent of the second user who has taken the OK sign beep. Since the gesture taken by the second user is a response to the attitude or behavior of the first user, if a gesture of the second user is detected in the second video stream, the gesture of the second user, which is the opposite of the second user, It becomes evaluation information.

제 1 단말(100-1)은 제 1 단말(100-1)에서 생성된 제 1 사용자에 대한 평가 정보를 영상 통화 서비스를 제공하는 서버(200)로 전송할 수 있다. 제 1 단말(100-1)은 제 1 사용자에 대한 평가 정보를 제 1 사용자의 계정에 대응시켜 영상 통화 서비스를 제공하는 서버(200)로 전송할 수 있다. 도 6에 도시된 바와 같이, 제 1 단말(100-1)은 제 2 영상 스트림에서 검출된 제 2 사용자의 제스처에 기초하여 생성된 이모션 정보 또는 아이콘 정보를 영상 통화 서비스를 제공하는 서버(200)로 전송할 수 있다. 이와 마찬 가지로, 제 2 단말(100-2)은 제 1 영상 스트림에서 검출된 제 1 사용자의 제스처에 기초하여 생성된 이모션 정보 또는 아이콘 정보를 영상 통화 서비스를 제공하는 서버(200)로 전송할 수 있다.The first terminal 100-1 may transmit the evaluation information of the first user generated by the first terminal 100-1 to the server 200 providing the video call service. The first terminal 100-1 may transmit the evaluation information about the first user to the server 200 providing the video call service in correspondence with the account of the first user. As shown in FIG. 6, the first terminal 100-1 transmits the icon information or the icon information generated based on the gesture of the second user detected in the second video stream to the server 200 providing the video call service, Lt; / RTI > Likewise, the second terminal 100-2 can transmit the emotion information or the icon information generated based on the gesture of the first user detected in the first video stream to the server 200 providing the video call service have.

제 1 단말(100-1)은 제 1 단말(100-1)에서 생성된 제 1 사용자에 대한 평가 정보를 제 2 영상 스트림이 디스플레이되는 영역에 중첩하여 디스플레이할 수 있다. 제 1 사용자에 대한 평가 정보가 제 2 영상 스트림에서 검출된 제 2 사용자의 제스처에 기초하여 제 1 단말(100-1)에서 생성되므로, 제 1 사용자에게 제 1 사용자가 어떤 평가를 받게 되는지 피드백을 줌으로써, 영상 통화를 하는 사용자들 간 긍정적인 대화 및 긍정적인 제스처를 유도하기 위함이다. 도 6을 참조하면, 제 2 사용자의 미소 짓는 표정에 대응되는 '스마일 아이콘'이라는 아이콘 정보가 제 1 단말(100-1)에서 생성됨에 따라, '스마일 아이콘'이 제 1 단말(100-1)에서 제 2 영상 스트림이 디스플레이되는 영역에 중첩하여 디스플레이될 수 있다. 또한, 제 1 단말(100-1)은 제 2 사용자의 미소 짓는 표정에 대응되는 '미소'라는 이모션 정보가 제 1 단말(100-1)에서 생성됨에 따라, "상대방이 미소 짓습니다"라는 소리를 출력할 수도 있다. 이에 따라, 제 1 사용자는 영상 통화의 상대방인 제 2 사용자가 미소 짓는 표정을 하여, 미소 짓는 표정에 대응되는 이모션 정보 또는 아이콘 정보를 자신의 평가 정보로써 획득하였음을 알 수 있다. The first terminal 100-1 can display the evaluation information on the first user generated by the first terminal 100-1 in an area where the second video stream is displayed. Since the evaluation information for the first user is generated in the first terminal 100-1 based on the gesture of the second user detected in the second video stream, feedback is given to the first user about what evaluation the first user will receive So as to induce positive dialogue and positive gestures among users who make video calls. 6, icon information 'smile icon' corresponding to a smiley face of a second user is generated in the first terminal 100-1, a 'smile icon' is displayed on the first terminal 100-1, The second video stream may be superimposed on the displayed area. Also, since the first terminal 100-1 generates the emotion information 'smile' corresponding to the smiling face of the second user at the first terminal 100-1, . Accordingly, the first user can recognize that the second user, who is the other party of the video call, smiles and acquires the emotion information or the icon information corresponding to the smiling face as his own evaluation information.

도 6을 참조하면, 제 1 사용자가 웃음 짓는 경우, 제 2 단말(100-2)이 제 1 사용자를 촬영한 제 1 영상 스트림에서 제 1 사용자의 웃음 짓는 표정을 검출하고, 웃음 짓는 표정에 대응되는 '웃음'이라는 이모션 정보 또는 '웃는 얼굴 아이콘'이라는 아이콘 정보를 웃음 짓는 표정을 취한 제 1 사용자의 상대방인 제 2 사용자에 대한 평가 정보로써 생성할 수 있다. 제 1 사용자의 웃음 짓는 표정에 대응되는 '웃는 얼굴 아이콘'이라는 아이콘 정보는 제 2 단말(100-2)에서 제 1 영상 스트림이 디스플레이되는 영역에 중첩하여 디스플레이될 수 있다. 또한, 제 2 단말(100-2)은 제 1 사용자의 웃음 짓는 표정에 대응되는 '웃음'라는 이모션 정보가 제 2 단말(100-2)에서 생성됨에 따라, "상대방이 웃습니다" 라는 소리를 출력할 수도 있다. 이에 따라, 제 2 사용자는 영상 통화의 상대방인 제 1 사용자가 웃음 짓는 표정을 하여, 웃음 짓는 표정에 대응되는 이모션 정보 또는 아이콘 정보를 자신의 평가 정보로써 획득하였음을 알 수 있다. Referring to FIG. 6, when the first user laughs, the second terminal 100-2 detects the laughing expression of the first user in the first video stream captured by the first user, and responds to the laughing expression As the evaluation information for the second user who is the opponent of the first user who takes a smiling face of the 'smile' icon information or the 'smile icon' icon information. The icon information of the 'smile icon' corresponding to the smile of the first user can be displayed in the overlapping area of the second terminal 100-2 where the first video stream is displayed. In addition, the second terminal 100-2 can generate a voice called " laughing " as the emotion information " laugh " corresponding to the laughing expression of the first user is generated in the second terminal 100-2 Output. Accordingly, the second user can recognize that the first user, who is the other party of the video call, makes a laughing smile and obtains the emotion information or icon information corresponding to the laughing expression as his own evaluation information.

도 7은 일 실시예에 따른 영상 통화 서비스를 제공하는 서버(200)의 스토리지(230)에 저장된 정보의 종류를 설명하기 위한 도면이다.7 is a view for explaining the types of information stored in the storage 230 of the server 200 providing a video call service according to an exemplary embodiment.

앞서 도 5 및 도 6에서 살펴본 바와 같이, 영상 통화 서비스를 제공하는 서버(200)는 제 1 단말(100-1) 또는 제 2 단말(100-2)로부터 영상 통화 서비스를 이용하는 사용자에 대한 평가 정보를 수신할 수 있다. 영상 통화 서비스를 제공하는 서버(200)의 스토리지(230)는 이와 같은 사용자에 대한 평가 정보 뿐만 아니라, 영상 통화 서비스를 제공하는 서버(200)가 영상 통화 서비스를 제공하기 위해 필요한 다양한 정보들을 저장할 수 있다.5 and 6, the server 200 providing the video call service receives the evaluation information about the user using the video call service from the first terminal 100-1 or the second terminal 100-2, Lt; / RTI > The storage 230 of the server 200 providing the video call service can store not only the evaluation information of the user but also various information necessary for providing the video call service by the server 200 providing the video call service have.

도 7을 참조하면, 영상 통화 서비스를 제공하는 서버(200)의 스토리지(230)는 영상 통화 서비스를 이용하는 복수의 사용자들 각각의 사용자의 계정별로, 복수 종류의 누적 평가 정보와 각 누적 평가 정보에 대응되는 평판 지수(Reputation Quotient) 및 모든 종류의 평판 지수를 반영한 종합 평판 지수를 저장할 수 있다.Referring to FIG. 7, the storage 230 of the server 200 providing the video call service stores a plurality of kinds of cumulative evaluation information and cumulative evaluation information for each user of a plurality of users using the video call service It can store a total reputation index reflecting the corresponding Reputation Quotient and all kinds of reputation indices.

예를 들어, 누적 평가 정보는 종류에 따라, 누적 이모션 정보, 누적 아이콘 정보, 누적 선호도/기피도 정보 등이 있을 수 있다. 누적 이모션 정보는, 예를 들어, 영상 통화 서비스를 이용하는 단말(100)로부터 수신된 이모션 정보를 누적한 형태의 정보이고, 누적 아이콘 정보는, 예를 들어, 단말(100)로부터 수신된 아이콘 정보를 누적한 형태의 정보일 수 있다. 이모션 정보 또는 아이콘 정보는 제 1 사용자를 촬영한 제 1 영상 스트림 또는 제 2 사용자를 촬영한 제 2 영상 스트림에서 영상 통화 서비스를 이용하는 사용자의 상대방이 취한 제스처에 대응되는 사용자에 대한 평가 정보일 수 있다. 누적 선호도/기피도 정보는, 예를 들어, 단말(100)로부터 수신된 선호도/기피도 정보를 누적한 형태의 정보일 수 있다. 선호도/기피도 정보는 영상 통화 서비스를 이용하는 사용자가 영상 통화 중 또는 영상 통화 종료 후, 영상 통화의 상대방에 대한 호감 또는 비호감을 직접 입력한 것일 수 있다.For example, the cumulative evaluation information may include cumulative emotion information, cumulative icon information, cumulative preference / avoidance degree information, and the like, depending on the type. The accumulated emotion information is, for example, information in the form of accumulating the emotion information received from the terminal 100 using the video call service, and the accumulated icon information may include, for example, icon information received from the terminal 100 It can be accumulated information. The emotion information or icon information may be evaluation information on a user corresponding to a gesture taken by a user of a user who uses the video call service in the first video stream of the first user or the second video stream of the second user . The cumulative preference / avoidance degree information may be information in the form of cumulative preference / avoidance degree information received from the terminal 100, for example. The preference / avoidance degree information may be a user who uses the video call service directly inputs a liking or a desire for the other party of the video call during or after the video call.

평판 지수는 영상 통화 서비스를 이용하는 사용자가 다른 사용자들로부터 어떤 평가를 받는지 나타내는 척도일 수 있다. 종합 평판 지수는 각 누적 평가 정보에 대응되는 평판 지수 및 모든 종류의 평판 지수를 반영할 수 있다. 예를 들어, 이모션 평판 지수는 누적 이모션 정보에 기초하여 획득되고, 아이콘 평판 지수는 누적 아이콘 정보에 기초하여 획득되며, 선호도/기피도 지수는 선호도/기피도 정보에 기초하여 획득될 수 있다. 종합 평판 지수는 이모션 평판 지수, 아이콘 평판 지수, 선호도/기피도 평판 지수를 종합적으로 반영한 평판 지수일 수 있다. 종합 평판 지수는 평판 지수의 종류에 따라 가중치를 달리하여 계산할 수 있다.The reputation index may be a measure of how a user of a video call service receives an evaluation from other users. The aggregate reputation index may reflect the reputation index corresponding to each cumulative rating information and any reputation index. For example, the emotion reputation index is obtained based on cumulative emotion information, the icon reputation index is obtained based on the cumulative icon information, and the preference / avoidance index can be obtained based on the preference / avoidance degree information. The total reputation index may be a reputation index that reflects the emotion reputation index, the icon reputation index, and the likelihood / avoidance reputation index together. The total reputation index can be calculated with different weights depending on the type of reputation index.

신상 정보는 영상 통화 서비스를 이용하는 사용자의 국적, 이름, 성별, 관심사 등의 개인 정보를 포함할 수 있다.Personal information may include personal information such as nationality, name, sex, and interests of the user using the video call service.

사이버 머니 정보는 영상 통화 서비스를 이용하는 사용자가 유료로 제공되는 부가 서비스를 이용하기 위한 가상 머니이다. 예를 들어, 사용자가 원하는 조건의 상대방과 영상 통화 매칭을 하기 위해서는 사용자는 소정의 사이버 머니를 지불하여야 한다. The cyber money information is a virtual money for using an additional service provided by a user who uses a video call service for a fee. For example, in order to perform a video call matching with a user having a desired condition, the user must pay a predetermined cyber money.

영상 통화 서비스를 제공하는 서버(200)는 영상 통화 서비스를 이용하는 사용자에 대한 평가 정보를 수신하고, 수신된 평가 정보에 기초하여, 스토리지(230)에 저장된, 사용자의 계정에 대응하는 누적 평가 정보와 평판 지수를 업데이트할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 영상 통화 서비스를 이용하는 사용자의 상대방이 취한 제스처에 대응되는 이모션 정보 또는 아이콘 정보를 사용자에 대한 평가 정보로써 수신할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 이모션 정보의 종류 또는 아이콘 정보의 종류에 따라 가중치를 달리하여, 업데이트된 누적 평가 정보로부터 업데이트된 평판 지수를 획득할 수 있다.The server 200 providing the video call service receives the evaluation information on the user who uses the video call service and generates cumulative evaluation information corresponding to the user's account stored in the storage 230 based on the received evaluation information You can update your reputation index. The server 200 providing the video call service can receive the emotion information or the icon information corresponding to the gesture taken by the user of the user who uses the video call service as the evaluation information for the user. The server 200 providing the video call service can obtain the updated reputation index from the updated cumulative evaluation information by changing the weight according to the kind of the emotion information or the type of the icon information.

영상 통화 서비스를 제공하는 서버(200)는 업데이트된 평판 지수에 기초하여, 영상 통화 서비스를 관리할 수 있다. 예를 들어, 영상 통화 서비스를 제공하는 서버(200)는 업데이트된 평판 지수에 기초하여, 영상 통화 서비스를 이용하는 복수의 사용자들을 매칭시키는 영상 통화 매칭 부가 서비스를 제공함으로써, 영상 통화 서비스를 관리할 수 있다. 다른 예를 들어, 영상 통화 서비스를 제공하는 서버(200)는 업데이트된 평판 지수에 기초하여, 영상 통화 서비스를 이용하는 복수의 사용자들을 범주화(categorization)하고, 각 사용자가 속하는 각 범주에 대응되는 사용자 관리 부가 서비스를 제공함으로써, 영상 통화 서비스를 관리할 수 있다.The server 200 providing the video call service can manage the video call service based on the updated reputation index. For example, the server 200 providing the video call service can manage the video call service by providing a video call matching supplementary service that matches a plurality of users using the video call service, based on the updated reputation index have. For example, the server 200 providing the video call service categorizes a plurality of users using the video call service based on the updated reputation index, and performs a user management corresponding to each category to which each user belongs By providing additional services, video call service can be managed.

한편, 영상 통화 서비스를 제공하는 서버(200)는 업데이트된 누적 평가 정보 또는 업데이트된 평판 지수를 통신 인터페이스(240)를 통해 단말(100)로 전송할 수 있다.Meanwhile, the server 200 providing the video call service can transmit the updated cumulative evaluation information or the updated reputation index to the terminal 100 through the communication interface 240.

도 8은 일 실시예에 따라 단말로부터 수신된 평가 정보에 기초한 사용자의 평판 지수에 기초하여 영상 통화 서비스를 관리하는 과정을 설명하기 위한 도면이다.8 is a diagram for explaining a process of managing a video call service based on a reputation index of a user based on evaluation information received from a terminal according to an embodiment.

영상 통화 서비스를 제공하는 서버(200)는 영상 통화 서비스를 이용하는 사용자에 대한 평가 정보를 수신하고, 스토리지(230)에 저장된, 사용자의 계정에 대응하는 누적 평가 정보를 업데이트 할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 사용자의 계정에 대응되는 업데이트된 누적 평가 정보에 기초하여, 사용자의 계정에 대응되는 평판 지수를 업데이트 할 수 있다.The server 200 providing the video call service can receive the evaluation information on the user who uses the video call service and can update the cumulative evaluation information corresponding to the user's account stored in the storage 230. The server 200 providing the video call service can update the reputation index corresponding to the user's account based on the updated cumulative evaluation information corresponding to the account of the user.

도 8을 참조하면, 영상 통화 서비스를 제공하는 서버(200)는 제 1 사용자 평가 정보로써, '미소', '좋음(수용)'과 같은 이모션 정보와 '스마일 아이콘', 'OK 아이콘'과 같은 아이콘 정보를 수신할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 수신된 이모션 정보와 아이콘 정보를 누적 이모션 정보와 누적 아이콘 정보에 업데이트 할 수 있다. 이에 따라, 스토리지(230) 내의 제 1 사용자 계정에 대응되는 공간에는 누적 이모션 정보로써 '미소', '좋음(수용)','슬픔', '분노'가 저장되고, 누적 아이콘 정보로써 '스마일 아이콘', 'OK 아이콘', '앵그리 아이콘', '눈물 아이콘'이 저장될 수 있다. 한편, 누적 선호도/기피도 정보에는 기피나 비호감을 의미하는 '다운'이 2번 저장될 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 1 사용자 계정에 대응되는 업데이트된 누적 평가 정보에 기초하여, 평판 지수를 업데이트할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 1 사용자 계정에 대응되는 누적 이모션 정보인 '미소', '좋음(수용)','슬픔', '분노' 각각에 대해 가중치를 달리하여, 제 1 사용자 계정에 대응되는 이모션 평판 지수를 획득할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 1 사용자 계정에 대응되는 누적 아이콘 정보인 '스마일 아이콘', 'OK 아이콘', '앵그리 아이콘', '눈물 아이콘' 각각에 대해 가중치를 달리하여, 제 1 사용자 계정에 대응되는 아이콘 평판 지수를 획득할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 1 사용자 계정에 대응되는 누적 선호도/기피도 정보인 2번의 '다운'에 기초하여 제 1 사용자 계정에 대응되는 선호도/기피도 지수를 획득할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 1 사용자 계정에 대응되는 이모션 평판 지수, 아이콘 평판 지수, 선호도/기피도 지수를 모두 고려하여 제 1 사용자 계정에 대응되는 종합 평판 지수를 획득할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 1 사용자 계정에 대응되는 각 평판 지수의 종류에 따라 가중치를 달리하여 종합 평판 지수를 계산할 수 있다.Referring to FIG. 8, the server 200 for providing a video call service may receive first information such as 'smiley' and 'good (acceptance)' as well as 'smiley icon' and 'OK icon' Icon information can be received. The server 200 providing the video call service can update the received emotion information and icon information with the accumulated emotion information and the accumulated icon information. Accordingly, 'Smile', 'Good' (acceptance), 'Sadness', and 'Anger' are stored in the space corresponding to the first user account in the storage 230 as accumulated cumulative information, ',' OK icon ',' Angry icon ', and' Tear icon 'can be stored. On the other hand, the cumulative preference / avoidance information may be stored twice as 'down', which means avoidance or dislike. The server 200 providing the video call service can update the reputation index based on the updated cumulative evaluation information corresponding to the first user account. The server 200 for providing the video call service has a weighting value for each of the accumulated emotion information corresponding to the first user account, that is, 'smile', 'good (acceptance)', 'sadness' It is possible to obtain the emotion reputation index corresponding to the user account. The server 200 for providing the video call service may change the weights for the smile icon, the OK icon, the angry icon, and the tear icon, which are cumulative icon information corresponding to the first user account, 1 icon rating index corresponding to the user account can be obtained. The server 200 providing the video call service can acquire a preference / avoidance index corresponding to the first user account based on the second 'down' cumulative preference / avoidance information corresponding to the first user account . The server 200 providing the video call service can acquire a comprehensive reputation index corresponding to the first user account in consideration of the emotion reputation index, the icon reputation index, and the preference / avoidance index corresponding to the first user account . The server 200 for providing the video call service can calculate the overall reputation index with different weights according to the types of the flat indices corresponding to the first user account.

도 8을 참조하면, 영상 통화 서비스를 제공하는 서버(200)는 제 2 사용자 평가 정보로써, '웃음', '만족'과 같은 이모션 정보와 '웃는 얼굴 아이콘', '엄지척 아이콘'과 같은 아이콘 정보를 수신할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 수신된 이모션 정보와 아이콘 정보를 누적 이모션 정보와 누적 아이콘 정보에 업데이트 할 수 있다. 이에 따라, 스토리지(230) 내의 제 2 사용자 계정에 대응되는 공간에는 누적 이모션 정보로써 '웃음', '만족','졸림', '언짢음'이 저장되고, 누적 아이콘 정보로써 '웃는 얼굴 아이콘', '엄지척 아이콘', '하품 아이콘', '업세트 아이콘'이 저장될 수 있다. 한편, 누적 선호도/기피도 정보에는 선호나 호감을 의미하는 '업'이 2번 저장될 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 2 사용자 계정에 대응되는 업데이트된 누적 평가 정보에 기초하여, 평판 지수를 업데이트할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 2 사용자 계정에 대응되는 누적 이모션 정보인 '웃음', '만족','졸림', '언짢음' 각각에 대해 가중치를 달리하여, 제 2 사용자 계정에 대응되는 이모션 평판 지수를 획득할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 2 사용자 계정에 대응되는 누적 아이콘 정보인 '웃는 얼굴 아이콘', '엄지척 아이콘', '하품 아이콘', '업세트 아이콘' 각각에 대해 가중치를 달리하여, 제 2 사용자 계정에 대응되는 아이콘 평판 지수를 획득할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 2 사용자 계정에 대응되는 누적 선호도/기피도 정보인 2번의 '업'에 기초하여 제 2 사용자 계정에 대응되는 선호도/기피도 지수를 획득할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 2 사용자 계정에 대응되는 이모션 평판 지수, 아이콘 평판 지수, 선호도/기피도 지수를 모두 고려하여 제 2 사용자 계정에 대응되는 종합 평판 지수를 획득할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 2 사용자 계정에 대응되는 각 평판 지수의 종류에 따라 가중치를 달리하여 종합 평판 지수를 계산할 수 있다.Referring to FIG. 8, the server 200 for providing a video call service may include second information such as 'smile', 'satisfaction', and 'smile icon' and 'thumbnail icon' Information can be received. The server 200 providing the video call service can update the received emotion information and icon information with the accumulated emotion information and the accumulated icon information. Accordingly, 'laugh', 'satisfaction', 'sleepiness', and 'unfiltered' are stored in the space corresponding to the second user account in the storage 230 as accumulated cumulative icon information, 'Thumb chuck icon', 'Yawning icon', and 'Upset icon' can be stored. On the other hand, cumulative preference / avoidance information may be stored twice as 'up', which means preference or appeal. The server 200 providing the video call service can update the reputation index based on the updated cumulative evaluation information corresponding to the second user account. The server 200 providing the video call service may change the weights of the cumulative emotion information corresponding to the second user account such as' laugh ',' satisfaction ',' sleepiness', and ' The corresponding emotion reputation index can be obtained. The server 200 for providing the video call service has a weight for each of the accumulated icon information corresponding to the second user account, i.e., the 'smiling face icon', the 'thumb thumb icon', the ' To obtain an icon reputation index corresponding to the second user account. The server 200 providing the video call service can acquire the preference / avoidance index corresponding to the second user account based on the second 'up' cumulative preference / avoidance information corresponding to the second user account . The server 200 providing the video call service can acquire the overall reputation index corresponding to the second user account in consideration of both the emotion reputation index, the icon reputation index, and the preference / avoidance index corresponding to the second user account . The server 200 providing the video call service can calculate the overall reputation index by changing the weights according to the types of the flat indices corresponding to the second user accounts.

영상 통화 서비스를 제공하는 서버(200)는 이와 같이 업데이트된 평판 지수에 기초하여, 영상 통화 서비스를 관리할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 이모션 평판 지수, 아이콘 평판 지수, 선호도/기피도 지수, 및 종합 평판 지수 중 적어도 하나에 기초하여, 영상 통화 서비스를 관리할 수 있다.The server 200 providing the video call service can manage the video call service based on the updated reputation index. The server 200 providing the video call service can manage the video call service based on at least one of the emotion reputation index, the icon reputation index, the preference / avoidance degree index, and the comprehensive reputation index.

도 8을 참조하면, 영상 통화 서비스를 제공하는 서버(200)는 업데이트된 평판 지수에 기초하여, 영상 통화 서비스를 이용하는 복수의 사용자들을 매칭시키는 영상 통화 매칭 부가 서비스를 제공함으로써, 영상 통화 서비스를 관리할 수 있다. 예를 들어, 영상 통화 서비스를 제공하는 서버(200)는 영상 통화 서비스를 이용하는 복수의 사용자들 각각의 업데이트된 평판 지수에 기초하여, 평판 지수가 같은 범주 내에 있는 사람들끼리 영상 통화 매칭을 시키거나, 유료 사용자에게 평판 지수가 높은 평판 좋은 사용자와 영상 통화 매칭을 시키거나, 영상 통화 서비스 신규 가입자에게 평판 지수가 높은 평판 좋은 사용자와 영상 통화 매칭을 시키는 등의 영상 통화 매칭 부가 서비스를 제공할 수 있다.Referring to FIG. 8, a server 200 for providing a video call service provides a video call matching supplementary service that matches a plurality of users using a video call service, based on the updated reputation index, can do. For example, the server 200 providing the video call service can perform video call matching between people who are within the same category as the reputation index, based on the updated reputation index of each of the plurality of users using the video call service, It is possible to provide a video call matching service such as a video call matching with a reputable user having a high reputation index to a paying user or a video call matching with a reputable user having a high reputation index to a new subscriber of the video call service.

또한, 영상 통화 서비스를 제공하는 서버(200)는 업데이트된 평판 지수에 기초하여, 영상 통화 서비스를 이용하는 복수의 사용자들을 범주화하고, 각 사용자가 속하는 각 범주에 대응되는 사용자 관리 부가 서비스를 제공함으로써, 영상 통화 서비스를 관리할 수 있다. 예를 들어, 영상 통화 서비스를 제공하는 서버(200)는 영상 통화 서비스를 이용하는 복수의 사용자들 각각의 업데이트된 평판 지수에 기초하여, 영상 통화 서비스를 이용하는 복수의 사용자들을 범주화하고, 각 범주 별로 다른 혜택을 제공하거나, 평판 지수가 낮은 범주의 사용자에게 블랙리스트에 오르지 않도록 미리 경고하거나, 평판 지수 임계치보다 평판 지수가 낮은 범주의 사용자에게 영상 통화 서비스의 사용을 일시적으로 또는 영구적으로 제한하는 등의 각 사용자가 속하는 각 범주에 대응되는 사용자 관리 부가 서비스를 제공할 수 있다.The server 200 providing the video call service categorizes a plurality of users using the video call service based on the updated reputation index and provides a user management service corresponding to each category to which each user belongs, Video call service can be managed. For example, the server 200 providing the video call service categorizes a plurality of users who use the video call service based on the updated reputation index of each of the plurality of users using the video call service, Benefit, or warn the reputation index not to be blacklisted to low-level users, or temporarily or permanently restrict the use of the video call service to users of a category with a lower reputation index than the reputation index threshold A user management additional service corresponding to each category to which the user belongs can be provided.

도 9는 일 실시예에 따라 영상 통화 서비스의 사용자의 제스처에 대응되는 평가 정보를 생성하여 영상 통화 서비스를 제공하는 방법을 설명하기 위한 흐름도이다. 9 is a flowchart illustrating a method of generating evaluation information corresponding to a gesture of a user of a video call service and providing a video call service according to an exemplary embodiment of the present invention.

블록 910에서, 제 1 단말(100-1)은 제 1 사용자의 제 1 단말(100-1)과 영상 통화의 상대방인 제 2 사용자의 제 2 단말(100-2) 간의 영상 통화 세션을 수립할 수 있다.In block 910, the first terminal 100-1 establishes a video call session between the first terminal 100-1 of the first user and the second terminal 100-2 of the second user, which is the other party of the video call .

블록 920에서, 제 1 단말(100-1)은 제 1 사용자를 촬영한 제 1 영상 스트림 또는 제 2 단말(100-2)로부터 수신된, 제 2 사용자를 촬영한 제 2 영상 스트림에서 제 1 사용자 또는 제 2 사용자의 제스처를 검출할 수 있다. In block 920, the first terminal 100-1 receives the first video stream of the first user or the second video stream of the second user 1002, which is received from the second terminal 100-2, Or the gesture of the second user.

제 1 단말(100-1)에서 제 1 사용자의 제스처를 검출하는 경우, 제 1 단말(100-1)은 제 1 단말(100-1)에서 촬영한, 제 1 영상 스트림에서 제 1 사용자의 표정, 몸짓, 및 행동 중 적어도 하나의 제스처를 검출할 수 있다. When the first terminal 100-1 detects the gesture of the first user, the first terminal 100-1 detects the gesture of the first user in the first video stream captured by the first terminal 100-1, , A gesture, and an action.

제 1 단말(100-1)에서 제 2 사용자의 제스처를 검출하는 경우, 제 1 단말(100-1)은 제 2 단말(100-2)로부터 수신된, 제 2 영상 스트림에서 제 2 사용자의 표정, 몸짓, 및 행동 중 적어도 하나의 제스처를 검출할 수 있다.In the case where the first terminal 100-1 detects the gesture of the second user, the first terminal 100-1 detects the gesture of the second user in the second video stream received from the second terminal 100-2, , A gesture, and an action.

블록 930에서, 제 1 단말(100-1)은 검출된 제스처에 기초하여, 검출된 제스처를 취한 사용자의 상대방에 대한 평가 정보를 생성할 수 있다. 제 1 단말(100-1)은 검출된 제스처에 대응되는 이모션 정보 또는 아이콘 정보를 상대방에 대한 평가 정보로써 생성할 수 있다.At block 930, the first terminal 100-1 may generate evaluation information for the other party of the user who took the detected gesture, based on the detected gesture. The first terminal 100-1 can generate the emotion information or the icon information corresponding to the detected gesture as the evaluation information for the other party.

제 1 단말(100-1)에서 제 1 사용자의 제스처를 검출하는 경우, 제 1 단말(100-1)은 검출된 제스처에 기초하여, 제 2 사용자에 대한 평가 정보를 생성할 수 있다. When detecting the gesture of the first user at the first terminal 100-1, the first terminal 100-1 may generate the evaluation information for the second user based on the detected gesture.

제 1 단말(100-1)에서 제 2 사용자의 제스처를 검출하는 경우, 제 1 단말(100-1)은 검출된 제스처에 기초하여, 제 1 사용자에 대한 평가 정보를 생성할 수 있다.When detecting the gesture of the second user at the first terminal 100-1, the first terminal 100-1 may generate the evaluation information for the first user based on the detected gesture.

블록 940에서, 제 1 단말(100-1)은 생성된 평가 정보를 영상 통화 서비스를 제공하는 서버(200)로 전송할 수 있다.In block 940, the first terminal 100-1 may transmit the generated evaluation information to the server 200 providing the video call service.

제 1 단말(100-1)에서 제 1 사용자의 제스처를 검출하는 경우, 제 1 단말(100-1)은 생성된 제 2 사용자에 대한 평가 정보를 제 2 사용자의 계정에 대응시켜 서버(200)로 전송할 수 있다.When the first terminal 100-1 detects the gesture of the first user, the first terminal 100-1 transmits the evaluation information about the generated second user to the server 200 in correspondence with the account of the second user, Lt; / RTI >

제 1 단말(100-1)에서 제 2 사용자의 제스처를 검출하는 경우, 제 1 단말(100-1)은 생성된 제 1 사용자에 대한 평가 정보를 제 1 사용자의 계정에 대응시켜 서버(200)로 전송할 수 있다.When the first terminal 100-1 detects the gesture of the second user, the first terminal 100-1 transmits the evaluation information on the generated first user to the server 200 in correspondence with the account of the first user, Lt; / RTI >

제 1 단말(100-1)에서 제 1 사용자의 제스처를 검출하는 경우, 제 1 단말(100-1)은 생성된 제 2 사용자에 대한 평가 정보를 제 2 단말(100-2)로 전송할 수 있다. 또한, 제 1 단말(100-1)은 제 2 단말(100-2)로부터 제 1 사용자에 대한 평가 정보를 수신하고, 수신된 제 1 사용자에 대한 평가 정보를 제 2 영상 스트림이 디스플레이되는 영역에 중첩하여 디스플레이할 수 있다.When the first terminal 100-1 detects the gesture of the first user, the first terminal 100-1 may transmit the evaluation information on the generated second user to the second terminal 100-2 . Also, the first terminal 100-1 receives the evaluation information on the first user from the second terminal 100-2, and transmits the evaluation information on the received first user to the area where the second video stream is displayed It is possible to superimpose them.

제 1 단말(100-1)에서 제 2 사용자의 제스처를 검출하는 경우, 제 1 단말(100-1)은 생성된 제 1 사용자에 대한 평가 정보를 제 2 영상 스트림이 디스플레이되는 영역에 중첩하여 디스플레이할 수 있다.When the first terminal 100-1 detects the gesture of the second user, the first terminal 100-1 superimposes the evaluation information on the generated first user on the area where the second video stream is displayed, can do.

도 10은 일 실시예에 따라 사용자의 평판 지수에 기초하여 영상 통화 서비스를 제공하는 방법을 설명하기 위한 흐름도이다.FIG. 10 is a flowchart illustrating a method of providing a video call service based on a reputation index of a user according to an embodiment.

블록 1010에서, 영상 통화 서비스를 제공하는 서버(200)는 영상 통화를 지원하는 단말(100)로부터 영상 통화 서비스를 이용하는 사용자에 대한 평가 정보를 수신할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 영상 통화 서비스를 이용하는 사용자의 상대방이 취한 제스처에 대응되는 이모션 정보 또는 아이콘 정보를 사용자에 대한 평가 정보로써 수신할 수 있다.In block 1010, the server 200 providing the video call service can receive the evaluation information on the user using the video call service from the terminal 100 supporting the video call. The server 200 providing the video call service can receive the emotion information or the icon information corresponding to the gesture taken by the user of the user who uses the video call service as the evaluation information for the user.

블록 1020에서, 영상 통화 서비스를 제공하는 서버(200)는 수신된 평가 정보에 기초하여, 스토리지(230)에 저장된, 사용자의 계정에 대응하는 누적 평가 정보와 평판 지수를 업데이트할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 이모션 정보의 종류 또는 아이콘 정보의 종류에 따라 가중치를 달리하여, 업데이트된 누적 평가 정보로부터 업데이트된 평판 지수를 획득할 수 있다.In block 1020, the server 200 providing the video call service may update the cumulative rating information and reputation index corresponding to the user's account stored in the storage 230, based on the received rating information. The server 200 providing the video call service can obtain the updated reputation index from the updated cumulative evaluation information by changing the weight according to the kind of the emotion information or the type of the icon information.

블록 1030에서, 영상 통화 서비스를 제공하는 서버(200)는 업데이트된 평판 지수에 기초하여, 영상 통화 서비스를 관리할 수 있다. 예를 들어, 영상 통화 서비스를 제공하는 서버(200)는 업데이트된 평판 지수에 기초하여, 영상 통화 서비스를 이용하는 복수의 사용자들을 매칭시키는 영상 통화 매칭 부가 서비스를 제공함으로써, 영상 통화 서비스를 관리할 수 있다. 다른 예를 들어, 영상 통화 서비스를 제공하는 서버(200)는 업데이트된 평판 지수에 기초하여, 영상 통화 서비스를 이용하는 복수의 사용자들을 범주화하고, 각 사용자가 속하는 각 범주에 대응되는 사용자 관리 부가 서비스를 제공함으로써, 영상 통화 서비스를 관리할 수 있다.In block 1030, the server 200 providing the video call service may manage the video call service based on the updated reputation index. For example, the server 200 providing the video call service can manage the video call service by providing a video call matching supplementary service that matches a plurality of users using the video call service, based on the updated reputation index have. For example, the server 200 providing the video call service categorizes a plurality of users using the video call service based on the updated reputation index, and provides a user management service corresponding to each category to which each user belongs So that the video call service can be managed.

영상 통화 서비스를 제공하는 서버(200)는 업데이트된 누적 평가 정보 또는 업데이트된 평판 지수를 통신 인터페이스(240)를 통해 영상 통화 서비스를 이용하는 단말로 전송할 수 있다. The server 200 providing the video call service can transmit the updated cumulative evaluation information or the updated reputation index to the terminal using the video call service through the communication interface 240. [

상술한 영상 통화 서비스의 사용자의 제스처에 대응되는 평가 정보를 생성하여 영상 통화 서비스를 제공하는 방법에 관한 실시예들은 영상 통화 서비스를 제공하는 단말(100)에서, 영상 통화 서비스의 사용자의 제스처에 대응되는 평가 정보를 생성하여 영상 통화 서비스를 제공하는 방법을 수행하도록 하는 컴퓨터 판독가능 저장매체에 저장된 애플리케이션 형태로 제공될 수 있다. 다시 말해서, 단말(100)로 하여금 상술한 영상 통화 서비스를 제공하는 방법의 각 단계를 실행시키기 위한 컴퓨터 판독가능 저장매체에 저장된 애플리케이션 또는 컴퓨터 프로그램 형태로 제공될 수 있다.Embodiments related to the method of generating the evaluation information corresponding to the gesture of the user of the video call service and providing the video call service described above may be applied to the gesture of the user of the video call service in the terminal 100 providing the video call service And providing the video call service by generating evaluation information indicating that the video call service is provided. In other words, the terminal 100 may be provided in the form of an application or a computer program stored in a computer-readable storage medium for executing each step of the method for providing the video call service described above.

사용자의 평판 지수에 기초하여 영상 통화 서비스를 제공하는 방법에 관한 실시예들은 서버(200)에서, 사용자의 평판 지수에 기초하여 영상 통화 서비스를 제공하는 방법을 수행할 수 있도록 컴퓨터 판독가능 저장매체에 저장된 컴퓨터 프로그램 형태로 제공될 수 있다. 다시 말해서, 서버(200)로 하여금 상술한 영상 통화 서비스를 제공하는 방법의 각 단계를 실행시키기 위한 컴퓨터 판독가능 저장매체에 저장된 컴퓨터 프로그램 또는 애플리케이션 형태로 제공될 수 있다.Embodiments of a method for providing a video call service based on a user's reputation index may be implemented in a computer readable storage medium such as a server 200 so as to perform a method of providing a video call service based on a user's reputation index And may be provided in the form of a stored computer program. In other words, the server 200 may be provided in the form of a computer program or an application stored in a computer-readable storage medium for executing the respective steps of the method for providing the video call service described above.

상술한 실시예들은 컴퓨터 또는 프로세서에 의하여 실행 가능한 명령어 또는 데이터를 저장하는 컴퓨터 판독 가능 저장매체의 형태로 구현될 수 있다. 상기 명령어 및 데이터 중 적어도 하나는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 소정의 프로그램 모듈을 생성하여 소정의 동작을 수행할 수 있다. 이와 같은 컴퓨터 판독 가능 저장매체는 read-only memory (ROM), random-access memory (RAM), flash memory, CD-ROMs, CD-Rs, CD+Rs, CD-RWs, CD+RWs, DVD-ROMs, DVD-Rs, DVD+Rs, DVD-RWs, DVD+RWs, DVD-RAMs, BD-ROMs, BD-Rs, BD-R LTHs, BD-REs, 마그네틱 테이프, 플로피 디스크, 광자기 데이터 저장 장치, 광학 데이터 저장 장치, 하드 디스크, 솔리드-스테이트 디스크(SSD), 그리고 명령어 또는 소프트웨어, 관련 데이터, 데이터 파일, 및 데이터 구조들을 저장할 수 있고, 프로세서나 컴퓨터가 명령어를 실행할 수 있도록 프로세서나 컴퓨터에 명령어 또는 소프트웨어, 관련 데이터, 데이터 파일, 및 데이터 구조들을 제공할 수 있는 어떠한 장치라도 될 수 있다. The above-described embodiments may be embodied in the form of a computer-readable storage medium for storing instructions or data executable by a computer or a processor. At least one of the command and data may be stored in the form of program code, and when executed by the processor, a predetermined program module may be generated to perform a predetermined operation. Such computer-readable storage mediums may include read only memory (ROM), random access memory (RAM), flash memory, CD-ROMs, CD-Rs, CD + Rs, CD- , DVD-Rs, DVD + Rs, DVD-RWs, DVD + RWs, DVD-RAMs, BD-ROMs, BD-Rs, BD-R LTHs, BD- REs, magnetic tape, floppy disk, magneto- Data storage devices, optical data storage devices, hard disks, solid-state disks (SSDs), and instructions or software, associated data, data files, and data structures, Software, related data, data files, and data structures.

이제까지 실시예들을 중심으로 살펴보았다. 개시된 실시예들이 속하는 기술 분야에서 통상의 지식을 가진 자는 개시된 실시예들이 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 발명의 범위는 전술한 실시예들의 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 발명의 범위에 포함된 것으로 해석되어야 할 것이다.So far, the embodiments have been mainly described. It will be understood by those skilled in the art that the disclosed embodiments may be embodied in various other forms without departing from the essential characteristics thereof. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the invention being indicated by the appended claims rather than by the foregoing description of the embodiments, and all differences within the scope of equivalents thereof should be construed as being included in the scope of the invention.

Claims (15)

제 1 단말에서,
제 1 사용자의 상기 제 1 단말과 영상 통화의 상대방인 제 2 사용자의 제 2 단말 간의 영상 통화 세션을 수립하는 단계;
상기 제 1 사용자를 촬영한 제 1 영상 스트림 또는 상기 제 2 단말로부터 수신된, 상기 제 2 사용자를 촬영한 제 2 영상 스트림에서, 상기 제 1 사용자 또는 상기 제 2 사용자의 제스처를 검출하는 단계;
상기 검출된 제스처에 기초하여, 상기 검출된 제스처를 취한 사용자의 상대방에 대한 평가 정보를 생성하는 단계; 및
상기 생성된 평가 정보를 영상 통화 서비스를 제공하는 서버로 전송하는 단계;
를 포함하는 영상 통화 서비스를 제공하는 방법을 수행하도록 하는 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션.
In the first terminal,
Establishing a video call session between the first terminal of the first user and the second terminal of the second user, which is the other party of the video call;
Detecting a gesture of the first user or the second user in a first video stream of the first user or a second video stream of the second user, the second video stream being received from the second terminal;
Generating evaluation information on a counterpart of a user who has taken the detected gesture based on the detected gesture; And
Transmitting the generated evaluation information to a server providing a video call service;
The method comprising the steps of: receiving a video call service request from a user;
제 1 항에 있어서,
상기 상대방에 대한 평가 정보를 생성하는 단계는,
상기 검출된 제스처에 대응되는 이모션 정보 또는 아이콘 정보를 상기 상대방에 대한 평가 정보로써 생성하는, 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션.
The method according to claim 1,
Wherein the step of generating evaluation information for the other party comprises:
And generates emotion information or icon information corresponding to the detected gesture as evaluation information for the other party.
제 1 항에 있어서,
상기 제 1 사용자의 제스처를 검출하는 경우,
상기 제스처를 검출하는 단계는,
상기 제 1 단말에서 촬영한, 상기 제 1 영상 스트림에서 상기 제 1 사용자의 표정, 몸짓, 및 행동 중 적어도 하나의 제스처를 검출하고,
상기 상대방에 대한 평가 정보를 생성하는 단계는,
상기 검출된 제스처에 기초하여, 상기 제 2 사용자에 대한 평가 정보를 생성하며,
상기 서버로 전송하는 단계는,
상기 생성된 제 2 사용자에 대한 평가 정보를 상기 제 2 사용자의 계정에 대응시켜 상기 서버로 전송하는, 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션.
The method according to claim 1,
When detecting the gesture of the first user,
Wherein the detecting the gesture comprises:
Detecting at least one of a facial expression, a gesture, and an action of the first user in the first video stream captured by the first terminal,
Wherein the step of generating evaluation information for the other party comprises:
Generates evaluation information for the second user based on the detected gesture,
Wherein the step of transmitting to the server comprises:
And transmits the evaluation information for the generated second user to the server in correspondence with the account of the second user.
제 3 항에 있어서,
상기 생성된 제 2 사용자에 대한 평가 정보를 상기 제 2 단말로 전송하는 단계를 포함하는, 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션.
The method of claim 3,
And transmitting the evaluation information for the generated second user to the second terminal.
제 3 항에 있어서,
상기 제 2 단말로부터 제 1 사용자에 대한 평가 정보를 수신하는 단계; 및
상기 수신된 제 1 사용자에 대한 평가 정보를 상기 제 2 영상 스트림이 디스플레이되는 영역에 중첩하여 디스플레이하는 단계;
를 포함하는, 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션.
The method of claim 3,
Receiving evaluation information for a first user from the second terminal; And
Superimposing the evaluation information on the received first user in an area where the second video stream is displayed;
≪ / RTI > stored on a computer readable storage medium.
제 1 항에 있어서,
상기 제 2 사용자의 제스처를 검출하는 경우,
상기 제스처를 검출하는 단계는,
상기 제 2 단말로부터 수신된, 상기 제 2 영상 스트림에서 상기 제 2 사용자의 표정, 몸짓, 및 행동 중 적어도 하나의 제스처를 검출하고,
상기 상대방에 대한 평가 정보를 생성하는 단계는,
상기 검출된 제스처에 기초하여, 상기 제 1 사용자에 대한 평가 정보를 생성하며,
상기 서버로 전송하는 단계는,
상기 생성된 제 1 사용자에 대한 평가 정보를 상기 제 1 사용자의 계정에 대응시켜 상기 서버로 전송하는, 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션.
The method according to claim 1,
When detecting the gesture of the second user,
Wherein the detecting the gesture comprises:
Detecting at least one gesture of the second user's facial expression, gesture, and behavior in the second video stream received from the second terminal,
Wherein the step of generating evaluation information for the other party comprises:
Generates evaluation information for the first user based on the detected gesture,
Wherein the step of transmitting to the server comprises:
And transmits the evaluation information for the generated first user to the server in correspondence with the account of the first user.
제 6 항에 있어서,
상기 생성된 제 1 사용자에 대한 평가 정보를 상기 제 2 영상 스트림이 디스플레이되는 영역에 중첩하여 디스플레이하는 단계를 포함하는, 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션.
The method according to claim 6,
And displaying the generated evaluation information for the first user overlaid on an area in which the second video stream is displayed.
영상 통화를 지원하는 단말과 통신을 수행하는 통신 인터페이스;
스토리지;
프로세서; 및
상기 프로세서에 의해 실행 가능한 명령어들을 저장하는 메모리;를 포함하고,
상기 프로세서는, 상기 명령어들을 실행함으로써, 상기 단말로부터 영상 통화 서비스를 이용하는 사용자에 대한 평가 정보를 수신하고, 상기 수신된 평가 정보에 기초하여, 상기 스토리지에 저장된, 상기 사용자의 계정에 대응하는 누적 평가 정보와 평판 지수를 업데이트하며, 상기 업데이트된 평판 지수에 기초하여, 상기 영상 통화 서비스를 관리하는, 영상 통화 서비스를 제공하는 서버.
A communication interface for performing communication with a terminal supporting a video call;
storage;
A processor; And
And a memory for storing instructions executable by the processor,
Wherein the processor is configured to receive the evaluation information for the user using the video call service from the terminal by executing the instructions and to perform a cumulative evaluation corresponding to the account of the user stored in the storage based on the received evaluation information Updates the information and reputation index, and manages the video call service based on the updated reputation index.
제 8 항에 있어서,
상기 프로세서는,
상기 영상 통화 서비스를 이용하는 상기 사용자의 상대방이 취한 제스처에 대응되는 이모션 정보 또는 아이콘 정보를 상기 사용자에 대한 평가 정보로써 수신하는, 영상 통화 서비스를 제공하는 서버.
9. The method of claim 8,
The processor comprising:
And receives the emotion information or the icon information corresponding to the gesture taken by the user of the user who uses the video call service as the evaluation information for the user.
제 9 항에 있어서,
상기 프로세서는,
상기 이모션 정보의 종류 또는 상기 아이콘 정보의 종류에 따라 가중치를 달리하여, 상기 업데이트된 누적 평가 정보로부터 상기 업데이트된 평판 지수를 획득하는, 영상 통화 서비스를 제공하는 서버.
10. The method of claim 9,
The processor comprising:
And obtains the updated reputation index from the updated cumulative evaluation information with a different weight according to the kind of the emotion information or the type of the icon information.
제 8 항에 있어서,
상기 프로세서는,
상기 업데이트된 평판 지수에 기초하여, 상기 영상 통화 서비스를 이용하는 복수의 사용자들을 매칭시키는 영상 통화 매칭 부가 서비스를 제공함으로써, 상기 영상 통화 서비스를 관리하는, 영상 통화 서비스를 제공하는 서버.
9. The method of claim 8,
The processor comprising:
Wherein the video call service is managed by providing a video call matching supplementary service that matches a plurality of users using the video call service based on the updated reputation index.
제 8 항에 있어서,
상기 프로세서는,
상기 업데이트된 평판 지수에 기초하여, 상기 영상 통화 서비스를 이용하는 복수의 사용자들을 범주화하고, 각 사용자가 속하는 각 범주에 대응되는 사용자 관리 부가 서비스를 제공함으로써, 상기 영상 통화 서비스를 관리하는, 영상 통화 서비스를 제공하는 서버.
9. The method of claim 8,
The processor comprising:
Categorizing a plurality of users using the video call service based on the updated reputation index and providing a user management service corresponding to each category to which each user belongs, Server.
제 8 항에 있어서,
상기 프로세서는,
상기 업데이트된 누적 평가 정보 또는 상기 업데이트된 평판 지수를 상기 통신 인터페이스를 통해 상기 단말로 전송하는, 영상 통화 서비스를 제공하는 서버.
9. The method of claim 8,
The processor comprising:
And transmits the updated cumulative evaluation information or the updated reputation index to the terminal via the communication interface.
제 8 항에 있어서,
상기 스토리지는,
상기 영상 통화 서비스를 이용하는 복수의 사용자들 각각의 사용자의 계정 별로, 복수 종류의 누적 평가 정보와 각 누적 평가 정보에 대응되는 평판 지수 및 모든 종류의 평판 지수를 반영한 종합 평판 지수를 저장하는, 영상 통화 서비스를 제공하는 서버.
9. The method of claim 8,
The storage device
Storing a plurality of kinds of cumulative evaluation information, a reputation index corresponding to each cumulative evaluation information, and a comprehensive reputation index reflecting all types of reputation indices, for each user of each of a plurality of users using the video call service, The server that provides the service.
제 1 사용자의 제 1 단말과 영상 통화의 상대방인 제 2 사용자의 제 2 단말 간의 영상 통화 세션을 수립하는 명령어들;
상기 제 1 사용자를 촬영한 제 1 영상 스트림 또는 상기 제 2 단말로부터 수신된, 상기 제 2 사용자를 촬영한 제 2 영상 스트림에서 상기 제 1 사용자 또는 상기 제 2 사용자의 제스처를 검출하는 명령어들;
상기 검출된 제스처에 기초하여, 상기 검출된 제스처를 취한 사용자의 상대방에 대한 평가 정보를 생성하는 명령어들; 및
상기 생성된 평가 정보를 영상 통화 서비스를 제공하는 서버로 전송하는 명령어들;
을 포함하는 프로세서에 의해 실행 가능한 명령어들이 저장된 비일시적 컴퓨터 판독 가능 저장매체.
Instructions for establishing a video call session between a first terminal of a first user and a second terminal of a second user that is a party of a video call;
Instructions for detecting a gesture of the first user or the second user in a first video stream captured by the first user or a second video stream captured from the second terminal and captured by the second user;
Instructions for generating rating information for a party of a user who has taken the detected gesture based on the detected gesture; And
And transmitting the generated evaluation information to a server providing a video call service;
Readable storage medium having stored thereon instructions executable by a processor comprising:
KR1020170182782A 2017-11-08 2017-12-28 Terminal and server providing a video call service KR102120871B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/198,161 US10554698B2 (en) 2017-12-28 2018-11-21 Terminal and server providing video call service

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170148293 2017-11-08
KR20170148293 2017-11-08

Publications (2)

Publication Number Publication Date
KR20190052584A true KR20190052584A (en) 2019-05-16
KR102120871B1 KR102120871B1 (en) 2020-06-09

Family

ID=66672230

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170182782A KR102120871B1 (en) 2017-11-08 2017-12-28 Terminal and server providing a video call service

Country Status (1)

Country Link
KR (1) KR102120871B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112308591A (en) * 2019-08-02 2021-02-02 中国移动通信有限公司研究院 User evaluation method, device, equipment and computer readable storage medium
KR102249501B1 (en) * 2019-11-25 2021-05-11 라인플러스 주식회사 Method, system, and computer program for providing ruputation badge for video chat

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110012491A (en) * 2009-07-30 2011-02-09 에스케이텔레콤 주식회사 System, management server, terminal and method for transmitting of message using image data and avatar
KR20130022434A (en) * 2011-08-22 2013-03-07 (주)아이디피쉬 Apparatus and method for servicing emotional contents on telecommunication devices, apparatus and method for recognizing emotion thereof, apparatus and method for generating and matching the emotional contents using the same
KR20150097337A (en) * 2014-02-18 2015-08-26 에스케이텔레콤 주식회사 Method and Apparatus for Providing Counterpart's Reputation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110012491A (en) * 2009-07-30 2011-02-09 에스케이텔레콤 주식회사 System, management server, terminal and method for transmitting of message using image data and avatar
KR20130022434A (en) * 2011-08-22 2013-03-07 (주)아이디피쉬 Apparatus and method for servicing emotional contents on telecommunication devices, apparatus and method for recognizing emotion thereof, apparatus and method for generating and matching the emotional contents using the same
KR20150097337A (en) * 2014-02-18 2015-08-26 에스케이텔레콤 주식회사 Method and Apparatus for Providing Counterpart's Reputation

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112308591A (en) * 2019-08-02 2021-02-02 中国移动通信有限公司研究院 User evaluation method, device, equipment and computer readable storage medium
KR102249501B1 (en) * 2019-11-25 2021-05-11 라인플러스 주식회사 Method, system, and computer program for providing ruputation badge for video chat
KR20210064120A (en) * 2019-11-25 2021-06-02 라인플러스 주식회사 Method, system, and computer program for providing ruputation badge for video chat
US11567638B2 (en) 2019-11-25 2023-01-31 LINE Plus Corporation Method, system, and non-transitory computer-readable record medium for providing reputation badge for video chat

Also Published As

Publication number Publication date
KR102120871B1 (en) 2020-06-09

Similar Documents

Publication Publication Date Title
KR102044241B1 (en) Terminal providing a video call service
US11140356B2 (en) Terminal and server for providing video call service
TWI681298B (en) System and method for touch-based communications
US20180329209A1 (en) Methods and systems of smart eyeglasses
KR102034838B1 (en) Terminal and server providing a video call service
JP2018505462A (en) Avatar selection mechanism
US20190228031A1 (en) Graphical image retrieval based on emotional state of a user of a computing device
WO2020207413A1 (en) Content pushing method, apparatus, and device
KR101978299B1 (en) Apparatus for service contents in contents service system
US9977510B1 (en) Gesture-driven introduction system
KR102120871B1 (en) Terminal and server providing a video call service
KR20110012491A (en) System, management server, terminal and method for transmitting of message using image data and avatar
US10554698B2 (en) Terminal and server providing video call service
KR102034839B1 (en) Terminal and server providing a video call service
US10721437B2 (en) Terminal and server for providing video call service
JP2019159533A (en) Facial expression improvement support program, facial expression improvement support method, and facial expression improvement support apparatus
KR20120136966A (en) Method for express emotion through visual object, system and terminal thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant