KR102120871B1 - Terminal and server providing a video call service - Google Patents

Terminal and server providing a video call service Download PDF

Info

Publication number
KR102120871B1
KR102120871B1 KR1020170182782A KR20170182782A KR102120871B1 KR 102120871 B1 KR102120871 B1 KR 102120871B1 KR 1020170182782 A KR1020170182782 A KR 1020170182782A KR 20170182782 A KR20170182782 A KR 20170182782A KR 102120871 B1 KR102120871 B1 KR 102120871B1
Authority
KR
South Korea
Prior art keywords
user
video call
terminal
call service
evaluation information
Prior art date
Application number
KR1020170182782A
Other languages
Korean (ko)
Other versions
KR20190052584A (en
Inventor
안상일
최혁
Original Assignee
주식회사 하이퍼커넥트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 하이퍼커넥트 filed Critical 주식회사 하이퍼커넥트
Priority to US16/198,161 priority Critical patent/US10554698B2/en
Publication of KR20190052584A publication Critical patent/KR20190052584A/en
Application granted granted Critical
Publication of KR102120871B1 publication Critical patent/KR102120871B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • G06K9/00221
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72522
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Abstract

영상 통화 서비스의 사용자의 제스처에 대응되는 평가 정보를 생성하여 영상 통화 서비스를 제공하는 단말과 단말로부터 수신된 평가 정보에 기초한 사용자의 평판 지수에 기초하여 영상 통화 서비스를 제공하는 서버를 개시한다.Disclosed is a terminal providing a video call service by generating evaluation information corresponding to a gesture of a user of a video call service, and a server providing a video call service based on a reputation index of a user based on the evaluation information received from the terminal.

Description

영상 통화 서비스를 제공하는 단말 및 서버{TERMINAL AND SERVER PROVIDING A VIDEO CALL SERVICE} TERMINAL AND SERVER PROVIDING A VIDEO CALL SERVICE}

영상 통화 서비스를 제공하는 단말과 영상 통화 서비스를 제공하는 서버에 관한 것이다.It relates to a terminal providing a video call service and a server providing a video call service.

과학 기술의 발전에 따라, 대부분의 사람들이 스마트 폰, 태블릿 PC와 같은 단말을 보유하게 되었다. 이와 같은 단말은 영상을 촬영하고, 재생할 수 있으며, 다른 단말과 통신을 수행하여 정보를 주고받거나, 영상 통화(video call)를 지원할 수 있다. With the development of science and technology, most people have terminals such as smart phones and tablet PCs. Such a terminal can take a video, play it, and communicate with other terminals to exchange information or support a video call.

한편, 영상 통화를 기반으로 하는 다양한 종류의 영상 통화 서비스가 존재한다. 예를 들어, 랜덤 영상 채팅 서비스는 랜덤 영상 채팅 서비스 이용 요청을 한 사용자의 단말을 랜덤 영상 채팅 서비스를 이용하는 사용자들 중 무작위로 선정된 사용자의 단말과 연결시켜주는 서비스이다.On the other hand, there are various types of video call services based on video calls. For example, the random video chat service is a service that connects a terminal of a user who has made a request to use the random video chat service with a terminal of a randomly selected user among users using the random video chat service.

영상 통화 서비스의 사용자의 제스처에 대응되는 평가 정보를 생성하여 영상 통화 서비스를 제공하는 단말과 단말로부터 수신된 평가 정보에 기초한 사용자의 평판 지수에 기초하여 영상 통화 서비스를 제공하는 서버를 제공하는 것이다.It is to provide a terminal for providing a video call service by generating evaluation information corresponding to a gesture of a user of a video call service, and a server for providing a video call service based on a reputation index of a user based on the evaluation information received from the terminal.

제 1 측면에 따른 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션은, 제 1 단말에서, 제 1 사용자의 상기 제 1 단말과 영상 통화의 상대방인 제 2 사용자의 제 2 단말 간의 영상 통화 세션을 수립하는 단계; 상기 제 1 사용자를 촬영한 제 1 영상 스트림 또는 상기 제 2 단말로부터 수신된, 상기 제 2 사용자를 촬영한 제 2 영상 스트림에서 상기 제 1 사용자 또는 상기 제 2 사용자의 제스처를 검출하는 단계; 상기 검출된 제스처에 기초하여, 상기 검출된 제스처를 취한 사용자의 상대방에 대한 평가 정보를 생성하는 단계; 및 상기 생성된 평가 정보를 영상 통화 서비스를 제공하는 서버로 전송하는 단계;를 포함하는 영상 통화 서비스를 제공하는 방법을 수행할 수 있다.The application stored in the computer-readable storage medium according to the first aspect includes the steps of: establishing a video call session between the first terminal of a first user and a second terminal of a second user as a counterpart of a video call in a first terminal; Detecting a gesture of the first user or the second user in a first video stream photographing the first user or a second video stream photographing the second user received from the second terminal; Generating evaluation information on a counterpart of the user who took the detected gesture based on the detected gesture; And transmitting the generated evaluation information to a server that provides a video call service. A method of providing a video call service may be performed.

제 2 측면에 따른 영상 통화 서비스를 제공하는 서버는, 영상 통화를 지원하는 단말과 통신을 수행하는 통신 인터페이스; 스토리지; 프로세서; 및 상기 프로세서에 의해 실행 가능한 명령어들을 저장하는 메모리;를 포함하고, 상기 프로세서는, 상기 명령어들을 실행함으로써, 상기 단말로부터 영상 통화 서비스를 이용하는 사용자에 대한 평가 정보를 수신하고, 상기 수신된 평가 정보에 기초하여, 상기 스토리지에 저장된, 상기 사용자의 계정에 대응하는 누적 평가 정보와 평판 지수를 업데이트하며, 상기 업데이트된 평판 지수에 기초하여, 상기 영상 통화 서비스를 관리한다. A server providing a video call service according to the second aspect includes: a communication interface for communicating with a terminal supporting video call; storage; Processor; And a memory for storing instructions executable by the processor, wherein the processor, by executing the instructions, receives evaluation information for a user using a video call service from the terminal, and the received evaluation information Based on this, the cumulative evaluation information and reputation index corresponding to the user's account stored in the storage are updated, and the video call service is managed based on the updated reputation index.

제 3 측면에 따른 프로세서에 의해 실행 가능한 명령어들이 저장된 비일시적 컴퓨터 판독 가능 저장매체는, 제 1 사용자의 상기 제 1 단말과 영상 통화의 상대방인 제 2 사용자의 제 2 단말 간의 영상 통화 세션을 수립하는 명령어들; 상기 제 1 사용자를 촬영한 제 1 영상 스트림 또는 상기 제 2 단말로부터 수신된, 상기 제 2 사용자를 촬영한 제 2 영상 스트림에서 상기 제 1 사용자 또는 상기 제 2 사용자의 제스처를 검출하는 명령어들; 상기 검출된 제스처에 기초하여, 상기 검출된 제스처를 취한 사용자의 상대방에 대한 평가 정보를 생성하는 명령어들; 및 상기 생성된 평가 정보를 영상 통화 서비스를 제공하는 서버로 전송하는 명령어들;을 포함한다.The non-transitory computer-readable storage medium storing instructions executable by the processor according to the third aspect establishes a video call session between the first terminal of the first user and the second terminal of the second user, the other party of the video call. Instructions; Instructions for detecting a gesture of the first user or the second user in a first image stream photographing the first user or a second image stream photographing the second user, received from the second terminal; Instructions for generating evaluation information on a counterpart of the user who took the detected gesture based on the detected gesture; And instructions for transmitting the generated evaluation information to a server providing a video call service.

도 1은 영상 통화 서비스가 제공되는 환경을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 단말의 구성을 나타낸 블록도이다.
도 3은 일 실시예에 따른 영상 통화 서비스를 제공하는 서버의 구성을 나타낸 블록도이다.
도 4는 다른 실시예에 따른 영상 통화 서비스를 제공하는 서버가 복수 개의 분산 서버들로 구현된 모습을 설명하기 위한 도면이다.
도 5는 일 실시예에 따라 제 1 사용자의 제스처에 기초하여 제 2 사용자에 대한 평가 정보를 생성하는 과정를 설명하기 위한 도면이다.
도 6은 일 실시예에 따라 제 2 사용자의 제스처에 기초하여 제 1 사용자에 대한 평가 정보를 생성하는 과정를 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 영상 통화 서비스를 제공하는 서버의 스토리지에 저장된 정보의 종류를 설명하기 위한 도면이다.
도 8은 일 실시예에 따라 단말로부터 수신된 평가 정보에 기초한 사용자의 평판 지수에 기초하여 영상 통화 서비스를 관리하는 과정을 설명하기 위한 도면이다.
도 9는 일 실시예에 따라 영상 통화 서비스의 사용자의 제스처에 대응되는 평가 정보를 생성하여 영상 통화 서비스를 제공하는 방법을 설명하기 위한 흐름도이다.
도 10은 일 실시예에 따라 사용자의 평판 지수에 기초하여 영상 통화 서비스를 제공하는 방법을 설명하기 위한 흐름도이다.
1 is a view for explaining an environment in which a video call service is provided.
2 is a block diagram showing the configuration of a terminal according to an embodiment.
3 is a block diagram showing a configuration of a server providing a video call service according to an embodiment.
4 is a view for explaining a state in which a server providing a video call service according to another embodiment is implemented with a plurality of distributed servers.
5 is a diagram for explaining a process of generating evaluation information for a second user based on a gesture of a first user according to an embodiment.
6 is a diagram for explaining a process of generating evaluation information for a first user based on a gesture of a second user according to an embodiment.
7 is a view for explaining the type of information stored in the storage of the server providing a video call service according to an embodiment.
8 is a diagram for explaining a process of managing a video call service based on a reputation index of a user based on evaluation information received from a terminal according to an embodiment.
9 is a flowchart for explaining a method of providing a video call service by generating evaluation information corresponding to a gesture of a user of a video call service according to an embodiment.
10 is a flowchart illustrating a method of providing a video call service based on a reputation index of a user according to an embodiment.

이하에서는 도면을 참조하여 다양한 실시예들을 상세히 설명한다. 이하에서 설명되는 실시예들은 여러 가지 상이한 형태로 변형되어 실시될 수도 있다. 실시예들의 특징을 보다 명확히 설명하기 위하여 이하의 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서 자세한 설명은 생략한다.Hereinafter, various embodiments will be described in detail with reference to the drawings. The embodiments described below may be implemented in various different forms. In order to more clearly describe the features of the embodiments, detailed descriptions of the matters well known to those skilled in the art to which the following embodiments pertain will be omitted.

한편, 본 명세서에서 어떤 구성이 다른 구성과 "연결"되어 있다고 할 때, 이는 '직접적으로 연결'되어 있는 경우뿐 아니라, '그 중간에 다른 구성을 사이에 두고 연결'되어 있는 경우도 포함한다. 또한, 어떤 구성이 다른 구성을 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한, 그 외 다른 구성을 제외하는 것이 아니라 다른 구성들 더 포함할 수도 있다는 것을 의미한다.Meanwhile, in the present specification, when a component is "connected" with another component, this includes not only a case of'directly connecting', but also a case of'connecting with other components in between'. In addition, when it is said that a configuration "includes" another configuration, this means that unless otherwise stated, other configurations may be excluded and other configurations may be included.

또한, 본 명세서에서 사용되는 '제 1' 또는 '제 2' 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용할 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. In addition, terms including an ordinal number such as'first' or'second' used in the present specification can be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from other components.

본 실시예들은 영상 통화 서비스를 제공하는 단말과 영상 통화 서비스를 제공하는 서버에 관한 것으로서 이하의 실시예들이 속하는 기술 분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서는 자세한 설명을 생략한다.The embodiments of the present invention relate to a terminal providing a video call service and a server providing a video call service, and detailed descriptions are omitted for matters well known to those skilled in the art to which the following embodiments pertain. do.

도 1은 영상 통화 서비스가 제공되는 환경을 설명하기 위한 도면이다.1 is a view for explaining an environment in which a video call service is provided.

영상 통화 서비스는 복수의 사용자들이 각자의 단말을 이용하여 자신의 영상을 상대방에게 전송하고 상대방의 영상을 수신함으로써 의사를 주고받을 수 있는 서비스를 의미한다. 영상 통화 서비스를 이용하는 사용자들은 각자의 단말을 통해, 영상과 음성을 주고받을 수 있으며, 채팅 기능을 통해 텍스트를 주고 받을 수도 있다. 영상 통화 서비스를 이용하려는 사용자는 상대방을 직접 지정하거나, 영상 통화 서비스를 제공하는 서버에서 랜덤 또는 소정의 방식에 따라 상대방을 지정해줌으로써, 상대방과 영상 통화 서비스를 이용할 수 있다. The video call service refers to a service in which a plurality of users can transmit and receive their intentions by transmitting their video to the other party and receiving the other party's video using their respective terminals. Users using the video call service can send and receive video and audio through their terminals, and send and receive text through the chat function. A user who wants to use the video call service can use the video call service with the other party by directly designating the other party or by designating the other party according to a random or predetermined method in a server providing the video call service.

도 1을 참조하면, 단말(100)이 통신망을 통해 영상 통화 서비스를 제공하는 서버(200)와 연결되어 있다. 서버(200)는 복수의 사용자들이 각자의 단말(100)을 이용하여 영상 통화 서비스를 이용할 수 있도록 도와주는 각종 프로그램 또는 애플리케이션과 데이터를 저장할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 근거리 통신 및 원격지 통신을 모두 수행할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 통신망을 통해 복수의 단말(100)들과 연결될 수 있다. 단말(100)은 영상 통화 서비스를 제공하는 서버(200)와의 연결에 이용될 수 있는 다양한 종류의 사용자 단말이 될 수 있다. 예를 들어, 단말(100)은 영상 통화 서비스를 제공하는 서버(200)와 통신을 수행할 수 있는 장치로서, 스마트 왓치와 같은 웨어러블 장치, 스마트 폰, 태블릿 PC, 랩톱 컴퓨터와 같은 모바일 장치, 데스크톱 컴퓨터와 같은 스테이셔너리 장치 등이 될 수 있다. 또한, 단말(100)은 영상 통화 서비스를 통해 연결되는 사용자들 간 영상 통화가 이루어질 수 있도록, 영상을 촬영하고 재생할 수 있는, 영상 통화를 지원하는 영상 통화 장치일 수 있다.Referring to FIG. 1, the terminal 100 is connected to a server 200 that provides a video call service through a communication network. The server 200 may store various programs or applications and data to help a plurality of users use a video call service using their respective terminals 100. The server 200 that provides a video call service can perform both short-range communication and remote communication. The server 200 that provides a video call service may be connected to a plurality of terminals 100 through a communication network. The terminal 100 may be various types of user terminals that can be used to connect to the server 200 that provides a video call service. For example, the terminal 100 is a device capable of communicating with the server 200 that provides a video call service, a wearable device such as a smart watch, a mobile device such as a smart phone, tablet PC, laptop computer, desktop It can be a stationary device such as a computer. In addition, the terminal 100 may be a video call device that supports video calls, capable of shooting and playing video, so that video calls can be made between users connected through a video call service.

도 2는 일 실시예에 따른 단말(100)의 구성을 나타낸 블록도이다.2 is a block diagram showing the configuration of a terminal 100 according to an embodiment.

도 2를 참고하면, 단말(100)은 메모리(110), 프로세서(120), 사용자 인터페이스(130), 통신 인터페이스(140), 음성 및 영상 입력부(150)를 포함할 수 있다. 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 도 2에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 알 수 있다.Referring to FIG. 2, the terminal 100 may include a memory 110, a processor 120, a user interface 130, a communication interface 140, and a voice and video input unit 150. Those of ordinary skill in the art related to this embodiment can see that other general-purpose components may be further included in addition to the components shown in FIG. 2.

메모리(110)는 소프트웨어 또는 프로그램을 저장할 수 있다. 예를 들어, 메모리(110)는 애플리케이션, 애플리케이션 프로그래밍 인터페이스(API) 등과 같은 프로그램 및 다양한 종류의 데이터를 저장할 수 있다. 메모리(110)는 프로세서(120)에 의해 실행 가능한 명령어들을 저장할 수 있다. The memory 110 may store software or programs. For example, the memory 110 may store programs such as applications, application programming interfaces (APIs), and various types of data. The memory 110 may store instructions executable by the processor 120.

프로세서(120)는 메모리(110)에 저장된 명령어들을 실행할 수 있다. 프로세서(120)는 메모리(110)에 저장된 각종 프로그램, 컨텐츠, 데이터를 이용하거나, 또는 새로운 프로그램, 컨텐츠, 데이터를 메모리(110)에 저장할 수도 있다. The processor 120 may execute instructions stored in the memory 110. The processor 120 may use various programs, contents, and data stored in the memory 110, or may store new programs, contents, and data in the memory 110.

프로세서(120)는 메모리(110)에 액세스하여, 메모리(110)에 저장된 O/S를 이용하여 부팅을 수행할 수 있다. 프로세서(120)는 메모리(110)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행할 수 있다. 예를 들어, 프로세서(120)는 메모리(110)에 저장된 각종 프로그램, 컨텐츠, 데이터를 이용하여, 디스플레이(136)에 소정의 화면을 표시할 수 있다. 프로세서(120)는 디스플레이(136)의 일 영역에 대한 사용자 조작이 이루어지면, 사용자의 조작에 대응되는 제어 동작을 수행할 수 있다. The processor 120 may access the memory 110 and boot using the O/S stored in the memory 110. The processor 120 may perform various operations using various programs, contents, and data stored in the memory 110. For example, the processor 120 may display a predetermined screen on the display 136 using various programs, contents, and data stored in the memory 110. When a user manipulation of a region of the display 136 is performed, the processor 120 may perform a control operation corresponding to the manipulation of the user.

프로세서(120)는 그래픽 처리에 특화된 GPU(Graphic Processing Unit)를 포함할 수 있다. GPU는 단말(100)의 부팅이 완료되면, 디스플레이(136)의 영역에 사용자 인터페이스 화면을 디스플레이한다. 구체적으로는, GPU는 컨텐츠, 아이콘, 메뉴 등과 같은 다양한 객체를 포함하는 영상 통화 레이아웃이 표시된 화면을 생성할 수 있다. GPU는 화면의 영상 통화 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산할 수 있다. 그리고, GPU는 연산된 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성할 수 있다. GPU에서 생성된 화면은 디스플레이(136)로 제공되어, 디스플레이(136)의 각 영역에 각각 표시될 수 있다.The processor 120 may include a graphic processing unit (GPU) specialized for graphic processing. When the booting of the terminal 100 is completed, the GPU displays a user interface screen in an area of the display 136. Specifically, the GPU may generate a screen displaying a video call layout including various objects such as content, icons, menus, and the like. The GPU may calculate attribute values such as coordinate values, shapes, sizes, colors, etc. to be displayed according to the video call layout of the screen. In addition, the GPU may generate screens of various layouts including objects based on the calculated attribute values. The screen generated by the GPU is provided to the display 136, and may be displayed on each area of the display 136, respectively.

한편, 프로세서(120)는 비디오 프로세서와 오디오 프로세서를 포함할 수 있다. 프로세서(120)는 비디오 프로세서와 오디오 프로세서를 제어하여, 통신 인터페이스(140)를 통해 수신된 영상 스트림 또는, 메모리(110)에 저장된 영상 스트림에 포함된 비디오 데이터 또는 오디오 데이터를 처리할 수 있다.Meanwhile, the processor 120 may include a video processor and an audio processor. The processor 120 may control the video processor and the audio processor to process video data or audio data included in the video stream received through the communication interface 140 or the video stream stored in the memory 110.

사용자 인터페이스(130)는 입력부(131)와 출력부(135)를 포함할 수 있다.The user interface 130 may include an input unit 131 and an output unit 135.

입력부(131)는 사용자로부터 다양한 명령어를 입력받을 수 있다. 입력부(131)는 키패드(132), 터치 패널(133) 및 펜 인식 패널(134) 중 적어도 하나를 포함할 수 있다. The input unit 131 may receive various commands from a user. The input unit 131 may include at least one of a keypad 132, a touch panel 133, and a pen recognition panel 134.

키패드(132)는 단말(100)의 본체 외관의 전면부나 측면부, 배면부 등의 다양한 영역에 형성된 기계적 버튼, 휠 등과 같은 다양한 유형의 키를 포함할 수 있다.The keypad 132 may include various types of keys such as mechanical buttons, wheels, etc. formed in various areas such as a front portion, a side portion, and a rear portion of the body exterior of the terminal 100.

터치 패널(133)은 사용자의 터치 입력을 감지하고, 감지된 터치 신호에 해당하는 터치 이벤트 값을 출력할 수 있다. 터치 패널(133)이 표시 패널과 결합하여 터치 스크린을 구성한 경우, 터치 스크린은 정전식이나, 감압식, 압전식 등과 같은 다양한 유형의 터치 센서로 구현될 수 있다. The touch panel 133 may detect a user's touch input and output a touch event value corresponding to the sensed touch signal. When the touch panel 133 forms a touch screen in combination with a display panel, the touch screen may be implemented with various types of touch sensors such as capacitive, pressure-sensitive, and piezoelectric types.

펜 인식 패널(134)은 사용자의 터치용 펜(예컨대, 스타일러스 펜(stylus pen))의 운용에 따른 펜의 근접 입력 또는 터치 입력을 감지하고 감지된 펜 근접 이벤트 또는 펜 터치 이벤트를 출력할 수 있다. 펜 인식 패널(134)은, 예로, EMR 방식으로 구현될 수 있으며, 펜의 근접 또는 터치에 의한 전자기장의 세기 변화에 따라 터치 또는 근접 입력을 감지할 수 있다. 펜 인식 패널(134)은 그리드 구조를 가지는 전자 유도 코일 센서와 전자 유도 코일 센서의 각 루프 코일에 순차적으로 소정의 주파수를 가지는 교류 신호를 제공하는 전자 신호 처리부를 포함하여 구성될 수 있다. The pen recognition panel 134 may detect the proximity input or touch input of the pen according to the operation of the user's touch pen (for example, a stylus pen) and output the detected pen proximity event or pen touch event. . The pen recognition panel 134 may be implemented by, for example, an EMR method, and sense a touch or proximity input according to a change in the intensity of the electromagnetic field due to proximity or touch of the pen. The pen recognition panel 134 may include an electromagnetic induction coil sensor having a grid structure and an electronic signal processing unit that sequentially provides an AC signal having a predetermined frequency to each loop coil of the electromagnetic induction coil sensor.

출력부(135)는 디스플레이(136), 스피커(137)를 포함할 수 있다. The output unit 135 may include a display 136 and a speaker 137.

디스플레이(136)는 표시 패널 및 표시 패널을 제어하는 컨트롤러를 포함할 수 있다. 표시 패널은 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, AM-OLED(Active-Matrix Organic Light-Emitting Diode), PDP(Plasma Display Panel) 등과 같은 다양한 방식으로 구현될 수 있다. 표시 패널은 유연하게(flexible) 또는 착용할 수 있게(wearable) 구현될 수 있다. 디스플레이(136)는 입력부(131)의 터치 패널(133)과 결합되어 터치 스크린으로 제공될 수 있다. The display 136 may include a display panel and a controller that controls the display panel. The display panel may be implemented in various ways such as a liquid crystal display (LCD), organic light emitting diodes (OLED) display, active-matrix organic light-emitting diode (AM-OLED), plasma display panel (PDP), and the like. The display panel can be implemented to be flexible or wearable. The display 136 may be combined with the touch panel 133 of the input unit 131 and provided as a touch screen.

스피커(137)는 오디오 데이터에 기초하여 소리를 출력할 수 있다. 예를 들어, 스피커(137)는 영상 스트림에 포함된 오디오 데이터에 따라, 사용자의 음성을 출력할 수 있다.The speaker 137 may output sound based on audio data. For example, the speaker 137 may output a user's voice according to audio data included in the video stream.

통신 인터페이스(140)는 다양한 유형의 통신방식에 따라 다양한 유형의 외부 기기와 통신을 수행할 수 있다. 통신 인터페이스(140)는 와이파이 칩, 블루투스 칩, NFC 칩, 무선통신 칩 중 적어도 하나를 포함할 수 있다. 프로세서(120)는 통신 인터페이스(140)를 이용하여 각종 외부 기기와 통신을 수행할 수 있다.The communication interface 140 may communicate with various types of external devices according to various types of communication methods. The communication interface 140 may include at least one of a Wi-Fi chip, a Bluetooth chip, an NFC chip, and a wireless communication chip. The processor 120 may communicate with various external devices using the communication interface 140.

와이파이 칩, 블루투스 칩은 각각 WiFi 방식, 블루투스 방식으로 통신을 수행할 수 있다. 와이파이 칩이나 블루투스 칩을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. NFC 칩은 다양한 RF-ID 주파수 대역들 중에서 13.56MHz 대역을 사용하는 NFC(Near Field Communication) 방식으로 동작하는 칩을 의미한다. 무선 통신 칩은 IEEE(Institute of Electrical and Electronics Engineers), 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), 5G(5th Generation) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다. The Wi-Fi chip and the Bluetooth chip can perform communication using a WiFi method and a Bluetooth method, respectively. In the case of using a Wi-Fi chip or a Bluetooth chip, various connection information such as an SSID and a session key may be first transmitted and received, and communication information may be used to transmit and receive various information. The NFC chip means a chip operating in a Near Field Communication (NFC) method using a 13.56 MHz band among various RF-ID frequency bands. The wireless communication chip communicates according to various communication standards such as the Institute of Electrical and Electronics Engineers (IEEE), Zigbee, 3rd Generation (3G), 3rd Generation Partnership Project (3GPP), Long Term Evolution (LTE), 5th Generation (5G), etc. Means a chip to do it.

음성 및 영상 입력부(150)는 마이크(151)와 카메라(153)를 포함할 수 있다. 마이크(151)는 사용자 음성이나 기타 소리를 입력받아 오디오 데이터로 변환할 수 있다. 프로세서(120)는 마이크(151)를 통해 입력되는 사용자 음성을 영상 통화에 이용하거나, 오디오 데이터로 변환하여 메모리(110)에 저장할 수 있다. 카메라(153)는 사용자의 제어에 따라 정지 영상 또는 동영상을 촬영할 수 있다. 카메라(153)는 단말(100)의 전면 또는 후면에 위치한 카메라 모듈일 수 있다. 프로세서(120)는 마이크(151)를 통해 입력되는 음성과 카메라(153)에 의해 촬영되는 영상을 이용하여, 영상 통화를 위한 영상 스트림을 생성할 수 있다. The audio and video input unit 150 may include a microphone 151 and a camera 153. The microphone 151 may receive a user voice or other sound and convert it into audio data. The processor 120 may use a user voice input through the microphone 151 for a video call or convert it into audio data and store it in the memory 110. The camera 153 may capture a still image or a video according to the user's control. The camera 153 may be a camera module located at the front or rear of the terminal 100. The processor 120 may generate a video stream for a video call by using the voice input through the microphone 151 and the image captured by the camera 153.

한편, 단말(100)은 모션 제어 모드나 음성 제어 모드로 동작할 수 있다. 모션 제어 모드로 동작하는 경우, 프로세서(120)는 카메라(153)를 활성화시켜 사용자를 촬영하고, 사용자의 모션 변화를 추적하여 그에 대응되는 제어 동작을 수행할 수 있다. 음성 제어 모드로 동작하는 경우, 프로세서(120)는 마이크(151)를 통해 입력된 사용자 음성을 분석하고, 분석된 사용자 음성에 따라 제어 동작을 수행할 수 있다. Meanwhile, the terminal 100 may operate in a motion control mode or a voice control mode. When operating in the motion control mode, the processor 120 may activate the camera 153 to photograph a user, track a user's motion change, and perform a corresponding control operation. When operating in the voice control mode, the processor 120 may analyze the user voice input through the microphone 151 and perform a control operation according to the analyzed user voice.

전술한 단말(100)의 구성 요소들의 명칭은 달라질 수 있다. 또한, 본 개시에 따른 단말(100)은 전술한 구성요소들 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 단말(100)은 전술한 구성요소들 중 적어도 하나를 이용하여, 다음과 같은 동작을 수행할 수 있다.The names of the components of the above-described terminal 100 may be different. In addition, the terminal 100 according to the present disclosure may be configured to include at least one of the above-described components, and some components may be omitted or further include other components. The terminal 100 may perform the following operation using at least one of the above-described components.

도 3은 일 실시예에 따른 영상 통화 서비스를 제공하는 서버(200)의 구성을 나타낸 블록도이다. 3 is a block diagram showing the configuration of a server 200 that provides a video call service according to an embodiment.

도 3을 참조하면, 영상 통화 서비스를 제공하는 서버(200)는 메모리(210), 프로세서(220), 스토리지(230), 통신 인터페이스(240)을 포함한다. 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 도 3에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 알 수 있다. 도 3의 블록도의 각 구성요소는 영상 통화 서비스를 제공하는 서버(200)의 구현 방식에 따라 분리, 추가, 또는 생략될 수 있다. 즉, 구현 방식에 따라 하나의 구성요소가 2 이상의 구성요소로 세분화되거나, 2 이상의 구성요소가 하나의 구성요소로 합쳐질 수도 있고, 일부 구성요소가 더 추가되거나 제거될 수 있다. Referring to FIG. 3, a server 200 that provides a video call service includes a memory 210, a processor 220, storage 230, and a communication interface 240. Those of ordinary skill in the art related to this embodiment can see that other general-purpose components may be further included in addition to the components shown in FIG. 3. Each component of the block diagram of FIG. 3 may be separated, added, or omitted depending on the implementation method of the server 200 that provides a video call service. That is, depending on the implementation method, one component may be subdivided into two or more components, or two or more components may be combined into one component, and some components may be further added or removed.

메모리(210)는 프로세서(220)에 의해 실행 가능한 명령어들을 저장할 수 있다. 메모리(210)는 소프트웨어 또는 프로그램을 저장할 수 있다. The memory 210 may store instructions executable by the processor 220. The memory 210 may store software or programs.

프로세서(220)는 메모리(210)에 저장된 명령어들을 실행할 수 있다. 프로세서(220)는 영상 통화 서비스를 제공하는 서버(200)의 전반적인 제어를 수행할 수 있다. 프로세서(220)는 통신 인터페이스(240)를 통해 수신되는 정보 및 요청 사항을 획득하고, 수신되는 정보를 스토리지(230)에 저장할 수 있다. 또한, 프로세서(220)는 수신되는 정보를 가공할 수 있다. 예를 들어, 프로세서(220)는 단말(100)로부터 수신되는 정보로부터 영상 통화 서비스에 이용되는 정보를 생성하거나, 수신되는 정보들을 관리하기 위한 가공행위를 수행하여, 스토리지(230)에 저장할 수 있다. 또한, 프로세서(220)는 단말(100)로부터 획득된 요청 사항에 대한 응답으로써, 스토리지(230)에 저장된 정보를 이용하여, 통신 인터페이스(240)를 통해 단말(100)에 영상 통화 서비스를 제공하기 위한 정보를 전송할 수 있다.The processor 220 may execute instructions stored in the memory 210. The processor 220 may perform overall control of the server 200 that provides a video call service. The processor 220 may obtain information and requests received through the communication interface 240 and store the received information in the storage 230. Also, the processor 220 may process the received information. For example, the processor 220 may generate information used for a video call service from information received from the terminal 100 or perform processing to manage the received information and store it in the storage 230. . In addition, the processor 220 in response to the request obtained from the terminal 100, using the information stored in the storage 230, to provide a video call service to the terminal 100 through the communication interface 240 Information.

스토리지(230)는 영상 통화 서비스를 제공하는 서버(200)가 영상 통화 서비스를 제공하기 위해 필요한 각종 소프트웨어 및 정보들을 저장할 수 있다. 예를 들어, 스토리지(230)는 영상 통화 서비스를 제공하는 서버(200)에서 실행되는 프로그램, 애플리케이션, 및 영상 통화 서비스에 이용되는 각종 데이터를 저장할 수 있다. The storage 230 may store various software and information necessary for the server 200 providing the video call service to provide the video call service. For example, the storage 230 may store programs, applications, and various data used in the video call service, which are executed in the server 200 that provides the video call service.

스토리지(230)는 영상 통화 서비스를 이용하는 사용자별 개인 정보를 데이터베이스화하여 저장 및 관리할 수 있다. 스토리지(230)는 영상 통화 서비스를 제공하는 서버(200)에 접속하기 위한 계정별로 사용자의 신상 정보와 영상 통화 서비스에 이용되는 다양한 정보 등을 저장할 수 있다. The storage 230 may store and manage personal information for each user using a video call service as a database. The storage 230 may store personal information of a user and various information used for a video call service for each account for accessing the server 200 that provides a video call service.

통신 인터페이스(240)는 단말(100)을 포함한 외부 기기와 통신을 수행할 수 있다. 예를 들어, 영상 통화 서비스를 제공하는 서버(200)는 단말(100)로부터 영상 통화 서비스 개시 요청, 영상 통화 서비스 환경을 갖추기 위한 설정 정보에 대한 요청 등을 수신하고, 단말(100)의 요청에 대한 응답으로, 영상 통화 서비스와 관련된 모든 사항들을 제공할 수 있다.The communication interface 240 may communicate with external devices including the terminal 100. For example, the server 200 that provides a video call service receives a request for initiating a video call service from the terminal 100, a request for setting information to prepare a video call service environment, and responds to the request of the terminal 100. In response, it is possible to provide all matters related to the video call service.

도 4는 다른 실시예에 따라 영상 통화 서비스를 제공하는 서버(200)가 복수 개의 분산 서버들로 구현된 모습을 설명하기 위한 도면이다. 이상에서 영상 통화 서비스를 제공하는 서버(200)와 관련하여 기재된 내용은 이하 생략된 내용이라 하더라도 그대로 적용될 수 있다.4 is a view for explaining a state in which the server 200 providing a video call service is implemented as a plurality of distributed servers according to another embodiment. The contents described in connection with the server 200 that provides a video call service as described above may be applied as it is even if omitted.

도 4를 참고하면, 영상 통화 서비스를 제공하는 분산 서버들은 부하 분산 서버(200-1)와 영상 통화 서비스를 제공하는 기능 서버들(200-3, 200-5, 200-7)로 구성될 수 있다. 부하 분산 서버(200-1)는 단말(100)과 같은 외부 기기의 영상 통화 서비스에 관한 요청이 있을 때, 영상 통화 서비스를 제공하는 기능 서버들(200-3, 200-5, 200-7) 중 임의의 서버를 결정하여 단말(100)에 연결시키거나, 영상 통화 서비스를 제공하는 기능 서버들(200-3, 200-5, 200-7)의 상태를 모니터링하여 최적의 서버를 선택하여 단말(100)에 연결시킬 수 있다.Referring to FIG. 4, distributed servers providing video call services may be composed of a load balancing server 200-1 and function servers 200200, 200-5, and 200-7 providing video call services. have. The load balancing server 200-1 is a functional server (200-3, 200-5, 200-7) that provides a video call service when there is a request for a video call service of an external device such as the terminal 100 Select any server among them to connect to the terminal 100, or monitor the status of function servers (200-3, 200-5, 200-7) that provide video call services to select the optimal server It can be connected to (100).

도 5는 일 실시예에 따라 제 1 사용자의 제스처에 기초하여 제 2 사용자에 대한 평가 정보를 생성하는 과정를 설명하기 위한 도면이다.5 is a diagram for explaining a process of generating evaluation information for a second user based on a gesture of a first user according to an embodiment.

도 5를 참조하면, 제 1 사용자와 영상 통화의 상대방인 제 2 사용자는 각각 제 1 단말(100-1)과 제 2 단말(100-2)을 통해 영상 통화를 할 수 있다. 제 1 단말(100-1)과 제 2 단말(100-2)은 영상 통화 서비스 제공자 측에서 제공한 영상 통화 서비스를 제공하기 위한 애플리케이션이 설치되어 있을 수 있다. 제 1 단말(100-1)과 제 2 단말(100-2)은 영상 통화 서비스를 제공하기 위한 애플리케이션을 실행하여, 영상 통화 서비스를 제공하는 서버(200)에 연결될 수 있고, 서버(200)에서 제공하는 영상 통화 서비스를 받을 수 있다. Referring to FIG. 5, the first user and the second user who is the other party of the video call can make a video call through the first terminal 100-1 and the second terminal 100-2, respectively. The first terminal 100-1 and the second terminal 100-2 may be installed with an application for providing a video call service provided by a video call service provider. The first terminal 100-1 and the second terminal 100-2 may be connected to a server 200 that provides a video call service by executing an application for providing a video call service, and the server 200 You can receive the video call service provided.

제 1 단말(100-1)은 영상 통화 서비스를 제공하는 서버(200)에 영상 통화 서비스의 이용 요청을 전송할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 1 단말(100-1)의 영상 통화 서비스의 이용 요청에 응답하여, 영상 통화의 상대방인 제 2 사용자의 제 2 단말(100-2)과 영상 통화가 이루어질 수 있도록, 영상 통화에 요구되는 정보들을 제 1 단말(100-1)에 제공할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 1 단말(100-1)의 영상 통화 서비스의 이용 요청에 따라, 영상 통화의 상대방을 랜덤으로 선정하거나, 소정의 규칙에 따라 선정하거나, 제 1 사용자가 지정한 상대방으로 선정할 수 있다. 제 1 사용자의 제 1 단말(100-1)과 제 2 사용자의 제 2 단말(100-2)은 영상 통화를 위해 상호 간에 영상 통화 세션을 수립할 수 있다. The first terminal 100-1 may transmit a request for using the video call service to the server 200 that provides the video call service. The server 200 that provides a video call service, in response to a request for using the video call service of the first terminal 100-1, makes a video call with the second terminal 100-2 of the second user who is the other party of the video call. In order to be made, information required for a video call may be provided to the first terminal 100-1. The server 200 that provides the video call service may randomly select the other party of the video call according to a request for use of the video call service of the first terminal 100-1, or select according to a predetermined rule, or the first user It can be selected as the opponent designated by. The first user's first terminal 100-1 and the second user's second terminal 100-2 may establish a video call session with each other for a video call.

제 1 단말(100-1)과 제 2 단말(100-2) 간의 영상 통화 세션이 수립되면, 제 1 사용자를 촬영한 제 1 영상 스트림은 제 1 단말(100-1)에서 제 2 단말(100-2)로 전송되고, 제 2 사용자를 촬영한 제 2 영상 스트림은 제 2 단말(100-2)에서 제 1 단말(100-1)로 전송될 수 있다. 제 1 단말(100-1)은 제 2 단말(100-2)로부터 제 2 영상 스트림을 수신하고, 제 2 단말(100-2)은 제 1 단말(100-1)로부터 제 1 영상 스트림을 수신할 수 있다.When a video call session is established between the first terminal 100-1 and the second terminal 100-2, the first video stream photographing the first user is the second terminal 100 in the first terminal 100-1. -2), and the second video stream photographing the second user may be transmitted from the second terminal 100-2 to the first terminal 100-1. The first terminal 100-1 receives the second video stream from the second terminal 100-2, and the second terminal 100-2 receives the first video stream from the first terminal 100-1. can do.

제 1 단말(100-1)은 제 1 사용자를 촬영한 제 1 영상 스트림 또는 제 2 단말로부터 수신된, 제 2 사용자를 촬영한 제 2 영상 스트림을 획득할 수 있다. 제 2 단말(100-2)은 제 2 사용자를 촬영한 제 2 영상 스트림 또는 제 1 단말(100-1)로부터 수신된, 제 1 사용자를 촬영한 제 1 영상 스트림을 획득할 수 있다. The first terminal 100-1 may acquire a first video stream photographing the first user or a second video stream photographing the second user received from the second terminal. The second terminal 100-2 may acquire a second image stream photographing the second user or a first image stream photographing the first user received from the first terminal 100-1.

제 1 단말(100-1)은 제 2 영상 스트림에 기초하여 제 2 사용자의 영상을 제 1 단말(100-1)의 화면에 디스플레이할 수 있고, 제 1 영상 스트림에 기초하여 제 1 사용자의 영상을 제 2 사용자의 영상이 디스플레이되는 화면 영역의 일부 영역에 디스플레이할 수 있다. 제 2 단말(100-2)은 제 1 영상 스트림에 기초하여 제 1 사용자의 영상을 제 2 단말(100-2)의 화면에 디스플레이할 수 있고, 제 2 영상 스트림에 기초하여 제 2 사용자의 영상을 제 1 사용자의 영상이 디스플레이되는 화면 영역의 일부 영역에 디스플레이할 수 있다. 도 5에 도시된 바와 같이, 제 1 단말(100-1)은 제 1 단말(100-1)의 화면에 제 2 사용자의 영상을 디스플레이함과 동시에 제 1 사용자의 영상을 제 1 단말(100-1)의 화면의 일부 영역에 더 작은 디스플레이 사이즈로 디스플레이할 수 있다. 제 2 단말(100-2)은 제 2 단말(100-2)의 화면에 제 1 사용자의 영상을 디스플레이함과 동시에 제 2 사용자의 영상을 제 2 단말(100-2)의 화면의 일부 영역에 더 작은 디스플레이 사이즈로 디스플레이할 수 있다.The first terminal 100-1 may display the image of the second user on the screen of the first terminal 100-1 based on the second image stream, and the image of the first user based on the first image stream May be displayed in a part of the screen area where the second user's image is displayed. The second terminal 100-2 may display the image of the first user on the screen of the second terminal 100-2 based on the first image stream, and the image of the second user based on the second image stream May be displayed in a part of the screen area where the first user's image is displayed. As illustrated in FIG. 5, the first terminal 100-1 displays the image of the second user on the screen of the first terminal 100-1 and simultaneously displays the image of the first user (100- A smaller display size can be displayed on a part of the screen of 1). The second terminal 100-2 displays the image of the first user on the screen of the second terminal 100-2 and simultaneously displays the image of the second user in a partial area of the screen of the second terminal 100-2. You can display with a smaller display size.

제 1 단말(100-1)과 제 2 단말(100-2)은 영상 통화 서비스를 제공하기 위한 동일한 애플리케이션이 각각 실행되고, 제 1 사용자와 제 2 사용자 간의 영상 통화가 이루어지면, 제 1 단말(100-1)과 제 2 단말(100-2) 각각의 동작 및 애플리케이션 상의 기능은 동일하므로, 이하, 제 1 단말(100-1)을 중심으로 설명하고, 제 2 단말(100-2)에 대한 설명은 생략한다.In the first terminal 100-1 and the second terminal 100-2, when the same application for providing a video call service is executed, and a video call is made between the first user and the second user, the first terminal ( Since the operations and functions on the applications of the 100-1) and the second terminal 100-2 are the same, hereinafter, the description will focus on the first terminal 100-1, and the second terminal 100-2 will be described. Description is omitted.

제 1 단말(100-1)과 제 2 단말(100-2)에서 상호 간 영상 통화 서비스가 실행되면, 제 1 단말(100-1)은 제 1 사용자를 촬영한 제 1 영상 스트림에서 제 1 사용자의 제스처를 검출할 수 있다. 제 1 단말(100-1)은 제 1 단말(100-1)에서 촬영한, 제 1 영상 스트림에서 제 1 사용자의 표정, 몸짓, 및 행동 중 적어도 하나의 제스처를 검출할 수 있다.When a video call service is executed between the first terminal 100-1 and the second terminal 100-2, the first terminal 100-1 is the first user in the first video stream that captured the first user. Can detect the gesture. The first terminal 100-1 may detect a gesture of at least one of a facial expression, a gesture, and an action of the first user in the first video stream photographed by the first terminal 100-1.

제스처는, 예를 들어, 사용자가 얼굴, 손, 몸 등을 이용하여 전달하는 비언어적 의사소통을 의미하며, 표정, 손짓, 몸짓 등이 될 수 있다. 사용자는 제스처를 취함으로써, 자신의 의사를 상대방에게 전달하거나, 상대방에게 어떤 반응을 유도해 낼 수 있다. 표정은, 예를 들어, 사용자가 얼굴을 통해 눈, 눈썹, 코, 입, 이마, 볼 등을 움직임으로써 자신의 생각을 나타내는 것이다. 예를 들어, 표정은 눈을 깜빡이기, 눈을 크게 만들거나 감기, 입꼬리 올리기, 입을 벌리기, 입술을 깨물기, 이마 찌푸리기 등이 될 수 있다. 손짓은, 예를 들어, 사용자가 손을 소정의 형상이나 액션을 취하게 함으로써, 몸짓은 사용자가 몸을 소정의 형상이나 액션을 취하게 함으로써 자신의 생각을 나타내는 것이다. 손짓은 OK 사인, 엄지를 위로 올리거나 아래로 내리기, 'V'자 만들기, 손을 앞뒤로 흔들기, 손을 좌우로 흔들기 등이 될 수 있다. 몸짓은 몸을 비틀기, 어깨를 들썩이기, 팔짱기기 등이 될 수 있다.Gesture means, for example, a non-verbal communication that a user delivers using a face, hand, or body, and may be an expression, hand gesture, gesture, or the like. By making a gesture, the user can convey his or her intention to the other party or induce a reaction to the other party. An expression is, for example, a user expressing his or her thoughts by moving an eye, an eyebrow, a nose, a mouth, a forehead, or a ball through the face. For example, facial expressions can be blinking eyes, making the eyes wider or cold, raising the mouth, opening the mouth, biting the lips, frowning the forehead, and the like. Gestures are, for example, a user's hand taking a predetermined shape or action, and a gesture is a user's body expressing his or her thoughts by taking a predetermined shape or action. Hand gestures can be the OK sign, raising or lowering the thumb, making the'V' shape, shaking hands back and forth, and shaking hands from side to side. Gestures can include twisting your body, shaking your shoulders, and raising your arms.

도 5를 참조하면, 제 1 단말(100-1)은 제 2 사용자가 미소 짓는 영상을 제 1 단말(100-1)의 화면에 디스플레이하고, 제 1 사용자가 웃음 짓는 영상을 제 2 사용자의 영상이 디스플레이되는 화면 영역의 좌측 하단 영역에 디스플레이하고 있다. 제 1 단말(100-1)은 제 1 사용자를 촬영한 제 1 영상 스트림에서 제 1 사용자의 웃음 짓는 표정을 검출할 수 있다. 예를 들어, 제 1 사용자가 엄지를 위로 올리는 손짓을 하면, 제 1 단말(100-1)은 제 1 영상 스트림에서 엄지를 위로 올리는 제 1 사용자의 손짓을 검출할 수도 있다. 제 1 단말(100-1)은 제 1 영상 스트림에서 제 1 사용자의 얼굴, 손, 몸에 있는 특징점에 기초하여, 제 1 영상 스트림에서 제 1 사용자의 제스쳐를 검출할 수 있다. 제 1 단말(100-1)은 실시간 또는 소정의 인터벌 간격으로 제 1 사용자의 제스쳐를 연속적으로 검출할 수 있다.Referring to FIG. 5, the first terminal 100-1 displays an image of the second user smiling on the screen of the first terminal 100-1, and the image of the first user laughing with the image of the second user It is displayed in the lower left area of the displayed screen area. The first terminal 100-1 may detect the smiley expression of the first user in the first video stream photographing the first user. For example, when the first user makes a gesture of raising the thumb, the first terminal 100-1 may detect the gesture of the first user raising the thumb in the first image stream. The first terminal 100-1 may detect the gesture of the first user in the first video stream based on the feature points on the face, hand, and body of the first user in the first video stream. The first terminal 100-1 may continuously detect the gesture of the first user in real time or at a predetermined interval.

제 1 단말(100-1)은 검출된 제 1 사용자의 제스처에 기초하여, 검출된 제스처를 취한 제 1 사용자의 상대방인 제 2 사용자에 대한 평가 정보를 생성할 수 있다. 제 1 단말(100-1)은 검출된 제스처에 대응되는 이모션 정보 또는 아이콘 정보를 제 2 사용자에 대한 평가 정보로써 생성할 수 있다.The first terminal 100-1 may generate evaluation information for the second user that is the counterpart of the first user who took the detected gesture based on the detected gesture of the first user. The first terminal 100-1 may generate emotion information or icon information corresponding to the detected gesture as evaluation information for the second user.

제스처는 사용자가 의식적으로 또는 무의식적으로 얼굴, 손, 몸 등을 이용하여 자신의 의사를 나타낸 것이므로, 제스처 각각은 대응되는 이모션 정보가 있을 수 있다. 이모션 정보는 제스처에 따른 사용자의 감정이거나 감정을 불러일으키는 기분, 분위기, 표현 자체를 의미할 수 있다. 예를 들어, 이모션 정보는 기쁨, 행복, 분노, 즐거움, 괴로움, 슬픔, 우울함, 졸림, 따분함, 궁금함, 언짢음, 만족, 미소, 웃음, 윙크, 울음, 긍정, 부정, 좋음(수용), 싫음(거절) 등이 될 수 있다.Since the gesture is a user's conscious or unconscious expression of his or her intention using the face, hands, or body, each of the gestures may have corresponding emotion information. Emotion information may mean a user's emotion according to a gesture or a feeling, mood, or expression that arouses emotion. For example, Emotion information includes joy, happiness, anger, joy, suffering, sadness, depression, drowsiness, boredom, wonder, displeasure, satisfaction, smile, laugh, wink, cry, positive, negative, good (accept), dislike (Reject).

또한, 제스처 각각은 대응되는 아이콘 정보가 있을 수 있다. 아이콘 정보는 제스처와 닮은꼴로 그 제스처를 직관적으로 묘사하거나, 제스처에 대응되는 이모션 정보를 나타내는 그림이나 기호일 수 있다. 예를 들어, 아이콘 정보는 사용자의 표정, 손짓, 몸짓 각각에 대응되는 형상이나 모양의 그림을 포함하거나, 이모션 정보를 표현하는 기호 또는 문자를 포함할 수 있다.In addition, each gesture may have corresponding icon information. The icon information may be an intuitive depiction of the gesture in a shape resembling a gesture, or may be a picture or a symbol representing the emotion information corresponding to the gesture. For example, the icon information may include a figure of a shape or shape corresponding to each of the user's facial expression, hand gesture, and gesture, or may include a symbol or character expressing the emotion information.

도 5를 참조하면, 제 1 단말(100-1)은 검출된 제 1 사용자의 웃음 짓는 표정에 기초하여, 제 2 사용자에 대한 평가 정보를 생성할 수 있다. 예를 들어, 제 1 단말(100-1)은 제 1 사용자의 웃음 짓는 표정에 대응되는 '웃음'이라는 이모션 정보 또는 '웃는 얼굴 아이콘'이라는 아이콘 정보를 웃음 짓는 표정을 취한 제 1 사용자의 상대방인 제 2 사용자에 대한 평가 정보로써 생성할 수 있다. 다른 예를 들어, 제 1 사용자가 엄지를 위로 올리는 손짓을 하면, 제 1 단말(100-1)은 제 1 사용자의 엄지를 위로 올리는 손짓에 기초하여, 제 1 사용자의 엄지를 위로 올리는 손짓에 대응되는 '만족'이라는 이모션 정보 또는 '엄지척 아이콘'이라는 아이콘 정보를 엄지를 위로 올리는 손짓을 취한 제 1 사용자의 상대방인 제 2 사용자에 대한 평가 정로써 생성할 수도 있다. 제 1 사용자가 취한 제스처는 제 2 사용자의 태도나 행위에 대한 응답이므로, 제 1 영상 스트림에서 제 1 사용자의 제스처가 검출되면, 검출된 제스처를 유발한 제 1 사용자의 상대방인 제 2 사용자에 대한 평가 정보가 되는 것이다.Referring to FIG. 5, the first terminal 100-1 may generate evaluation information for the second user based on the detected smiley expression of the first user. For example, the first terminal 100-1 is an opponent of the first user who has the expression of laughing the emotion information of the'laugh' or the icon of the'smiley face icon' corresponding to the smiley expression of the first user. It can be generated as evaluation information for the second user. For another example, when the first user gestures to raise the thumb upward, the first terminal 100-1 corresponds to the gesture of raising the thumb of the first user based on the gesture of raising the thumb of the first user Emotion information called'satisfaction' or icon information called'thumbs up icon' can also be generated as a rating for the second user, the other user's opponent who took the gesture of raising the thumb. Since the gesture taken by the first user is a response to the attitude or behavior of the second user, when the first user's gesture is detected in the first video stream, the second user that is the counterpart of the first user causing the detected gesture It becomes evaluation information.

제 1 단말(100-1)은 제 1 단말(100-1)에서 생성된 제 2 사용자에 대한 평가 정보를 영상 통화 서비스를 제공하는 서버(200)로 전송할 수 있다. 제 1 단말(100-1)은 제 2 사용자에 대한 평가 정보를 제 2 사용자의 계정에 대응시켜 영상 통화 서비스를 제공하는 서버(200)로 전송할 수 있다. 도 5에 도시된 바와 같이, 제 1 단말(100-1)은 제 1 영상 스트림에서 검출된 제 1 사용자의 제스처에 기초하여 생성된 이모션 정보 또는 아이콘 정보를 영상 통화 서비스를 제공하는 서버(200)로 전송할 수 있다. 이와 마찬 가지로, 제 2 단말(100-2)은 제 2 영상 스트림에서 검출된 제 2 사용자의 제스처에 기초하여 생성된 이모션 정보 또는 아이콘 정보를 영상 통화 서비스를 제공하는 서버(200)로 전송할 수 있다.The first terminal 100-1 may transmit evaluation information for the second user generated by the first terminal 100-1 to the server 200 that provides a video call service. The first terminal 100-1 may transmit the evaluation information for the second user to the server 200 that provides a video call service in correspondence with the account of the second user. As illustrated in FIG. 5, the first terminal 100-1 is a server 200 that provides a video call service with emotion information or icon information generated based on the gesture of the first user detected in the first video stream. Can be transferred to. Similarly, the second terminal 100-2 may transmit the emotion information or icon information generated based on the gesture of the second user detected in the second video stream to the server 200 that provides a video call service. have.

한편, 제 1 단말(100-1)은 제 2 사용자에 대한 평가 정보를 제 2 단말(100-2)로 전송할 수 있다. 제 2 사용자에 대한 평가 정보가 제 1 영상 스트림에서 검출된 제 1 사용자의 제스처에 기초하여 제 1 단말(100-1)에서 생성되므로, 제 2 사용자에게 제 2 사용자가 어떤 평가를 받게 되는지 피드백을 줌으로써, 영상 통화를 하는 사용자들 간 긍정적인 대화 및 긍정적인 제스처를 유도하기 위함이다. 도 5를 참조하면, 제 1 사용자의 웃음 짓는 표정에 대응되는 '웃는 얼굴 아이콘'이라는 아이콘 정보가 제 1 단말(100-1)에서 제 2 단말(100-2)로 전송될 수 있다. 제 2 단말(100-2)로 전송된 아이콘 정보에 따라, '웃는 얼굴 아이콘'이 제 2 단말(100-2)에서 제 1 영상 스트림이 디스플레이되는 영역에 중첩하여 디스플레이될 수 있다. 이에 따라, 제 2 사용자는 영상 통화의 상대방인 제 1 사용자가 웃음 짓는 표정을 하여, 웃음 짓는 표정에 대응되는 이모션 정보 또는 아이콘 정보를 자신의 평가 정보로써 획득하였음을 알 수 있다. Meanwhile, the first terminal 100-1 may transmit evaluation information for the second user to the second terminal 100-2. Since the evaluation information for the second user is generated in the first terminal 100-1 based on the gesture of the first user detected in the first video stream, feedback to the second user about what evaluation the second user will receive This is to induce positive conversation and positive gestures between users making video calls. Referring to FIG. 5, icon information of a “smiley face icon” corresponding to a smiley expression of the first user may be transmitted from the first terminal 100-1 to the second terminal 100-2. According to the icon information transmitted to the second terminal 100-2, the'smiley face icon' may be displayed overlapping the area where the first video stream is displayed in the second terminal 100-2. Accordingly, the second user can know that the first user, the other party of the video call, has a smiley expression, and has obtained the emotion information or icon information corresponding to the smiley expression as his evaluation information.

반대로, 제 1 단말(100-1)은 제 2 단말(100-2)로부터 제 1 사용자에 대한 평가 정보를 수신하고, 수신된 제 1 사용자에 대한 평가 정보를 제 2 영상 스트림이 디스플레이되는 영역에 중첩하여 디스플레이할 수 있다. 제 1 사용자에 대한 평가 정보가 제 2 영상 스트림에서 검출된 제 2 사용자의 제스처에 기초하여 제 2 단말(100-2)에서 생성되므로, 제 1 사용자에게 제 1 사용자가 어떤 평가를 받게 되는지 피드백을 주는 것이다. 도 5를 참조하면, 제 2 사용자가 미소 짓는 경우, 제 2 단말(100-2)이 제 2 사용자를 촬영한 제 2 영상 스트림에서 제 2 사용자의 미소 짓는 표정을 검출하고, 미소 짓는 표정에 대응되는 '미소'라는 이모션 정보 또는 '스마일 아이콘'이라는 아이콘 정보를 미소 짓는 표정을 취한 제 2 사용자의 상대방인 제 1 사용자에 대한 평가 정보로써 생성할 수 있다. 제 2 사용자의 미소 짓는 표정에 대응되는 '스마일 아이콘'이라는 아이콘 정보는 제 2 단말(100-2)에서 제 1 단말(100-1)로 전송될 수 있다. 제 1 단말(100-1)로 전송된 아이콘 정보에 따라, '스마일 아이콘'이 제 1 단말(100-1)에서 제 2 영상 스트림이 디스플레이되는 영역에 중첩하여 디스플레이될 수 있다. 이에 따라, 제 1 사용자는 영상 통화의 상대방인 제 2 사용자가 미소 짓는 표정을 하여, 미소 짓는 표정에 대응되는 이모션 정보 또는 아이콘 정보를 자신의 평가 정보로써 획득하였음을 알 수 있다. Conversely, the first terminal 100-1 receives evaluation information for the first user from the second terminal 100-2, and the received evaluation information for the first user is displayed in an area where the second video stream is displayed. It can be superimposed and displayed. Since the evaluation information for the first user is generated in the second terminal 100-2 based on the gesture of the second user detected in the second video stream, feedback to the first user about what evaluation the first user will receive To give. Referring to FIG. 5, when the second user smiles, the second terminal 100-2 detects the smiling expression of the second user in the second video stream photographing the second user and corresponds to the smiling expression Emotion information called'smile' or icon information called'smile icon' may be generated as evaluation information for the first user who is the other user's counterpart. The icon information called'smile icon' corresponding to the smiley expression of the second user may be transmitted from the second terminal 100-2 to the first terminal 100-1. According to the icon information transmitted to the first terminal 100-1, a'smile icon' may be displayed overlapping the area where the second video stream is displayed in the first terminal 100-1. Accordingly, the first user can know that the second user, the other party of the video call, has a smile expression, and has obtained the emotion information or icon information corresponding to the smile expression as his evaluation information.

도 6은 일 실시예에 따라 제 2 사용자의 제스처에 기초하여 제 1 사용자에 대한 평가 정보를 생성하는 과정를 설명하기 위한 도면이다.6 is a diagram for explaining a process of generating evaluation information for a first user based on a gesture of a second user according to an embodiment.

제 1 단말(100-1)의 영상 통화 서비스의 이용 요청에 응답하여, 영상 통화의 상대방인 제 2 사용자의 제 2 단말(100-2)과 영상 통화가 이루어지는 과정은 도 5에서 설명한 내용과 동일하므로 생략한다.In response to the request for the use of the video call service of the first terminal 100-1, the process of making a video call with the second terminal 100-2 of the second user who is the other party of the video call is the same as described in FIG. So it is omitted.

도 6을 참조하면, 제 1 단말(100-1)과 제 2 단말(100-2)에서 상호 간 영상 통화 서비스가 실행되면, 제 1 단말(100-1)은 제 2 단말(100-2)로부터 수신된, 제 2 사용자를 촬영한 제 2 영상 스트림에서 제 2 사용자의 제스처를 검출할 수 있다. 제 1 단말(100-1)은 제 2 단말(100-2)에서 촬영한, 제 2 영상 스트림에서 제 2 사용자의 표정, 몸짓, 및 행동 중 적어도 하나의 제스처를 검출할 수 있다.Referring to FIG. 6, when a video call service is executed between the first terminal 100-1 and the second terminal 100-2, the first terminal 100-1 is the second terminal 100-2. The gesture of the second user may be detected from the second video stream captured from the second user. The first terminal 100-1 may detect at least one gesture of a second user's facial expression, gesture, and action in the second image stream captured by the second terminal 100-2.

도 6을 참조하면, 제 1 단말(100-1)은 제 2 사용자가 미소 짓는 영상을 제 1 단말(100-1)의 화면에 디스플레이하고, 제 1 사용자가 웃음 짓는 영상을 제 2 사용자의 영상이 디스플레이되는 화면 영역의 좌측 하단 영역에 디스플레이하고 있다. 제 1 단말(100-1)은 제 2 사용자를 촬영한 제 2 영상 스트림에서 제 2 사용자의 미소 짓는 표정을 검출할 수 있다. 예를 들어, 제 2 사용자가 OK 사인 손짓을 하면, 제 1 단말(100-1)은 제 2 영상 스트림에서 OK 사인 손짓을 하는 제 2 사용자의 손짓을 검출할 수도 있다. 제 1 단말(100-1)은 제 2 영상 스트림에서 제 2 사용자의 얼굴, 손, 몸에 있는 특징점에 기초하여, 제 2 영상 스트림에서 제 2 사용자의 제스쳐를 검출할 수 있다. 제 1 단말(100-1)은 실시간 또는 소정의 인터벌 간격으로 제 2 사용자의 제스쳐를 연속적으로 검출할 수 있다.Referring to FIG. 6, the first terminal 100-1 displays an image of the second user smiling on the screen of the first terminal 100-1, and the image of the first user laughing on the image of the second user It is displayed in the lower left area of the displayed screen area. The first terminal 100-1 may detect a smiley expression of the second user from the second video stream that photographed the second user. For example, when the second user makes an OK sign gesture, the first terminal 100-1 may detect the gesture of the second user who makes an OK sign gesture in the second video stream. The first terminal 100-1 may detect the gesture of the second user in the second video stream based on the feature points on the face, hand, and body of the second user in the second video stream. The first terminal 100-1 may continuously detect a second user's gesture in real time or at a predetermined interval.

제 1 단말(100-1)은 검출된 제 2 사용자의 제스처에 기초하여, 검출된 제스처를 취한 제 2 사용자의 상대방인 제 1 사용자에 대한 평가 정보를 생성할 수 있다. 제 1 단말(100-1)은 검출된 제스처에 대응되는 이모션 정보 또는 아이콘 정보를 제 1 사용자에 대한 평가 정보로써 생성할 수 있다.Based on the detected second user's gesture, the first terminal 100-1 may generate evaluation information for the first user that is the counterpart of the second user who took the detected gesture. The first terminal 100-1 may generate emotion information or icon information corresponding to the detected gesture as evaluation information for the first user.

도 6을 참조하면, 제 1 단말(100-1)은 검출된 제 2 사용자의 미소 짓는 표정에 기초하여, 제 1 사용자에 대한 평가 정보를 생성할 수 있다. 제 1 단말(100-1)은 제 2 사용자의 미소 짓는 표정에 대응되는 '미소'라는 이모션 정보 또는 '스마일 아이콘'이라는 아이콘 정보를 미소 짓는 표정을 취한 제 2 사용자의 상대방인 제 1 사용자에 대한 평가 정보로써 생성할 수 있다. 제 2 사용자가 OK 사인 손짓을 하면, 제 1 단말(100-1)은 제 2 사용자의 OK 사인 손짓에 기초하여, 제 2 사용자의 엄지를 위로 올리는 손짓에 대응되는 '좋음(수용)'이라는 이모션 정보 또는 'OK 아이콘'이라는 아이콘 정보를 OK 사인 손짓을 취한 제 2 사용자의 상대방인 제 1 사용자에 대한 평가 정보로써 생성할 수도 있다. 제 2 사용자가 취한 제스처는 제 1 사용자의 태도나 행위에 대한 응답이므로, 제 2 영상 스트림에서 제 2 사용자의 제스처가 검출되면, 검출된 제스처를 유발한 제 2 사용자의 상대방인 제 1 사용자에 대한 평가 정보가 되는 것이다.Referring to FIG. 6, the first terminal 100-1 may generate evaluation information for the first user based on the detected smiley expression of the second user. The first terminal 100-1 for the first user who is the counterpart of the second user who has the expression of smiling smile information or'smile icon' corresponding to the smile expression of the second user Can be generated as evaluation information. When the second user makes an OK sign gesture, the first terminal 100-1, based on the OK sign gesture of the second user, responds to the gesture of raising the thumb of the second user to the good gesture (acceptance). Information or icon information called'OK icon' may also be generated as evaluation information for the first user, which is the counterpart of the second user who took the OK sign gesture. Since the gesture taken by the second user is a response to the attitude or behavior of the first user, when a gesture of the second user is detected in the second video stream, the first user that is the counterpart of the second user causing the detected gesture It becomes evaluation information.

제 1 단말(100-1)은 제 1 단말(100-1)에서 생성된 제 1 사용자에 대한 평가 정보를 영상 통화 서비스를 제공하는 서버(200)로 전송할 수 있다. 제 1 단말(100-1)은 제 1 사용자에 대한 평가 정보를 제 1 사용자의 계정에 대응시켜 영상 통화 서비스를 제공하는 서버(200)로 전송할 수 있다. 도 6에 도시된 바와 같이, 제 1 단말(100-1)은 제 2 영상 스트림에서 검출된 제 2 사용자의 제스처에 기초하여 생성된 이모션 정보 또는 아이콘 정보를 영상 통화 서비스를 제공하는 서버(200)로 전송할 수 있다. 이와 마찬 가지로, 제 2 단말(100-2)은 제 1 영상 스트림에서 검출된 제 1 사용자의 제스처에 기초하여 생성된 이모션 정보 또는 아이콘 정보를 영상 통화 서비스를 제공하는 서버(200)로 전송할 수 있다.The first terminal 100-1 may transmit evaluation information for the first user generated in the first terminal 100-1 to the server 200 that provides a video call service. The first terminal 100-1 may transmit the evaluation information for the first user to the server 200 that provides a video call service in correspondence with the account of the first user. As shown in FIG. 6, the first terminal 100-1 is a server 200 that provides a video call service with the emotion information or icon information generated based on the gesture of the second user detected in the second video stream. Can be transferred to. Similarly, the second terminal 100-2 may transmit the emotion information or icon information generated based on the gesture of the first user detected in the first video stream to the server 200 that provides a video call service. have.

제 1 단말(100-1)은 제 1 단말(100-1)에서 생성된 제 1 사용자에 대한 평가 정보를 제 2 영상 스트림이 디스플레이되는 영역에 중첩하여 디스플레이할 수 있다. 제 1 사용자에 대한 평가 정보가 제 2 영상 스트림에서 검출된 제 2 사용자의 제스처에 기초하여 제 1 단말(100-1)에서 생성되므로, 제 1 사용자에게 제 1 사용자가 어떤 평가를 받게 되는지 피드백을 줌으로써, 영상 통화를 하는 사용자들 간 긍정적인 대화 및 긍정적인 제스처를 유도하기 위함이다. 도 6을 참조하면, 제 2 사용자의 미소 짓는 표정에 대응되는 '스마일 아이콘'이라는 아이콘 정보가 제 1 단말(100-1)에서 생성됨에 따라, '스마일 아이콘'이 제 1 단말(100-1)에서 제 2 영상 스트림이 디스플레이되는 영역에 중첩하여 디스플레이될 수 있다. 또한, 제 1 단말(100-1)은 제 2 사용자의 미소 짓는 표정에 대응되는 '미소'라는 이모션 정보가 제 1 단말(100-1)에서 생성됨에 따라, "상대방이 미소 짓습니다"라는 소리를 출력할 수도 있다. 이에 따라, 제 1 사용자는 영상 통화의 상대방인 제 2 사용자가 미소 짓는 표정을 하여, 미소 짓는 표정에 대응되는 이모션 정보 또는 아이콘 정보를 자신의 평가 정보로써 획득하였음을 알 수 있다. The first terminal 100-1 may display the evaluation information for the first user generated in the first terminal 100-1 overlapping the area where the second image stream is displayed. Since the evaluation information for the first user is generated in the first terminal 100-1 based on the gesture of the second user detected in the second video stream, feedback to the first user about what evaluation the first user will receive This is to induce positive conversation and positive gestures between users making video calls. Referring to FIG. 6, as the icon information'Smile Icon' corresponding to the smiley expression of the second user is generated in the first terminal 100-1, the'Smile Icon' is the first terminal 100-1. In the second image stream may be displayed overlapping the displayed area. In addition, as the first terminal 100-1 generates'emotion' emotion information corresponding to the smiley expression of the second user in the first terminal 100-1, the sound of "the other party smiles" You can also output Accordingly, the first user can know that the second user, the other party of the video call, has a smile expression, and has obtained the emotion information or icon information corresponding to the smile expression as his evaluation information.

도 6을 참조하면, 제 1 사용자가 웃음 짓는 경우, 제 2 단말(100-2)이 제 1 사용자를 촬영한 제 1 영상 스트림에서 제 1 사용자의 웃음 짓는 표정을 검출하고, 웃음 짓는 표정에 대응되는 '웃음'이라는 이모션 정보 또는 '웃는 얼굴 아이콘'이라는 아이콘 정보를 웃음 짓는 표정을 취한 제 1 사용자의 상대방인 제 2 사용자에 대한 평가 정보로써 생성할 수 있다. 제 1 사용자의 웃음 짓는 표정에 대응되는 '웃는 얼굴 아이콘'이라는 아이콘 정보는 제 2 단말(100-2)에서 제 1 영상 스트림이 디스플레이되는 영역에 중첩하여 디스플레이될 수 있다. 또한, 제 2 단말(100-2)은 제 1 사용자의 웃음 짓는 표정에 대응되는 '웃음'라는 이모션 정보가 제 2 단말(100-2)에서 생성됨에 따라, "상대방이 웃습니다" 라는 소리를 출력할 수도 있다. 이에 따라, 제 2 사용자는 영상 통화의 상대방인 제 1 사용자가 웃음 짓는 표정을 하여, 웃음 짓는 표정에 대응되는 이모션 정보 또는 아이콘 정보를 자신의 평가 정보로써 획득하였음을 알 수 있다. Referring to FIG. 6, when the first user laughs, the second terminal 100-2 detects the smiling expression of the first user in the first video stream photographing the first user and corresponds to the smiling expression Emotion information called'laugh' or icon information called'laugh face icon' may be generated as evaluation information for the second user who is the first user's counterpart with a smiley expression. The icon information of the “smiley face icon” corresponding to the smiley expression of the first user may be displayed overlapping the area where the first video stream is displayed in the second terminal 100-2. In addition, as the second terminal 100-2 generates the emotion information of'laugh' corresponding to the first user's smiley expression in the second terminal 100-2, the "other party laughs" sound. You can also print Accordingly, the second user can know that the first user, the other party of the video call, has a smiley expression, and has obtained the emotion information or icon information corresponding to the smiley expression as his evaluation information.

도 7은 일 실시예에 따른 영상 통화 서비스를 제공하는 서버(200)의 스토리지(230)에 저장된 정보의 종류를 설명하기 위한 도면이다.7 is a view for explaining the type of information stored in the storage 230 of the server 200 providing a video call service according to an embodiment.

앞서 도 5 및 도 6에서 살펴본 바와 같이, 영상 통화 서비스를 제공하는 서버(200)는 제 1 단말(100-1) 또는 제 2 단말(100-2)로부터 영상 통화 서비스를 이용하는 사용자에 대한 평가 정보를 수신할 수 있다. 영상 통화 서비스를 제공하는 서버(200)의 스토리지(230)는 이와 같은 사용자에 대한 평가 정보 뿐만 아니라, 영상 통화 서비스를 제공하는 서버(200)가 영상 통화 서비스를 제공하기 위해 필요한 다양한 정보들을 저장할 수 있다.As described above with reference to FIGS. 5 and 6, the server 200 that provides the video call service is the evaluation information for the user who uses the video call service from the first terminal 100-1 or the second terminal 100-2. Can receive. The storage 230 of the server 200 that provides a video call service can store various information required by the server 200 that provides a video call service as well as evaluation information for the user. have.

도 7을 참조하면, 영상 통화 서비스를 제공하는 서버(200)의 스토리지(230)는 영상 통화 서비스를 이용하는 복수의 사용자들 각각의 사용자의 계정별로, 복수 종류의 누적 평가 정보와 각 누적 평가 정보에 대응되는 평판 지수(Reputation Quotient) 및 모든 종류의 평판 지수를 반영한 종합 평판 지수를 저장할 수 있다.Referring to FIG. 7, the storage 230 of the server 200 that provides a video call service includes a plurality of types of cumulative evaluation information and each cumulative evaluation information for each user's account of a plurality of users using the video call service. A comprehensive reputation index reflecting the corresponding reputation index and all kinds of reputation indexes can be stored.

예를 들어, 누적 평가 정보는 종류에 따라, 누적 이모션 정보, 누적 아이콘 정보, 누적 선호도/기피도 정보 등이 있을 수 있다. 누적 이모션 정보는, 예를 들어, 영상 통화 서비스를 이용하는 단말(100)로부터 수신된 이모션 정보를 누적한 형태의 정보이고, 누적 아이콘 정보는, 예를 들어, 단말(100)로부터 수신된 아이콘 정보를 누적한 형태의 정보일 수 있다. 이모션 정보 또는 아이콘 정보는 제 1 사용자를 촬영한 제 1 영상 스트림 또는 제 2 사용자를 촬영한 제 2 영상 스트림에서 영상 통화 서비스를 이용하는 사용자의 상대방이 취한 제스처에 대응되는 사용자에 대한 평가 정보일 수 있다. 누적 선호도/기피도 정보는, 예를 들어, 단말(100)로부터 수신된 선호도/기피도 정보를 누적한 형태의 정보일 수 있다. 선호도/기피도 정보는 영상 통화 서비스를 이용하는 사용자가 영상 통화 중 또는 영상 통화 종료 후, 영상 통화의 상대방에 대한 호감 또는 비호감을 직접 입력한 것일 수 있다.For example, the cumulative evaluation information may include cumulative emotion information, cumulative icon information, cumulative preference/avoidance information, and the like, depending on the type. The accumulated emotion information is, for example, information obtained by accumulating the emotion information received from the terminal 100 using a video call service, and the accumulated icon information includes, for example, icon information received from the terminal 100. It may be a cumulative form of information. Emotion information or icon information may be evaluation information for a user corresponding to a gesture taken by a counterpart of a user using a video call service in a first video stream photographing a first user or a second video stream photographing a second user. . The accumulated preference/avoidance information may be, for example, information obtained by accumulating preference/avoidance information received from the terminal 100. The preference/avoidance information may be that a user who uses a video call service directly inputs a favorable or unfavorable feeling to a counterpart of a video call during or after a video call.

평판 지수는 영상 통화 서비스를 이용하는 사용자가 다른 사용자들로부터 어떤 평가를 받는지 나타내는 척도일 수 있다. 종합 평판 지수는 각 누적 평가 정보에 대응되는 평판 지수 및 모든 종류의 평판 지수를 반영할 수 있다. 예를 들어, 이모션 평판 지수는 누적 이모션 정보에 기초하여 획득되고, 아이콘 평판 지수는 누적 아이콘 정보에 기초하여 획득되며, 선호도/기피도 지수는 선호도/기피도 정보에 기초하여 획득될 수 있다. 종합 평판 지수는 이모션 평판 지수, 아이콘 평판 지수, 선호도/기피도 평판 지수를 종합적으로 반영한 평판 지수일 수 있다. 종합 평판 지수는 평판 지수의 종류에 따라 가중치를 달리하여 계산할 수 있다.The reputation index may be a measure of how a user using a video call service is evaluated by other users. The comprehensive reputation index may reflect a reputation index corresponding to each cumulative evaluation information and all kinds of reputation indices. For example, the Emotion reputation index may be obtained based on cumulative Emotion information, the Icon reputation index may be obtained based on cumulative icon information, and the Preference/Repellency index may be obtained based on Preference/Repellency information. The comprehensive reputation index may be a reputation index that comprehensively reflects the Emotion reputation index, icon reputation index, and preference/avoidance reputation index. The overall reputation index can be calculated by varying the weight according to the type of reputation index.

신상 정보는 영상 통화 서비스를 이용하는 사용자의 국적, 이름, 성별, 관심사 등의 개인 정보를 포함할 수 있다.The personal information may include personal information such as the nationality, name, gender, and interests of the user who uses the video call service.

사이버 머니 정보는 영상 통화 서비스를 이용하는 사용자가 유료로 제공되는 부가 서비스를 이용하기 위한 가상 머니이다. 예를 들어, 사용자가 원하는 조건의 상대방과 영상 통화 매칭을 하기 위해서는 사용자는 소정의 사이버 머니를 지불하여야 한다. The cyber money information is a virtual money for a user using a video call service to use an additional service provided for a fee. For example, in order to make a video call match with a counterpart of a user's desired condition, the user must pay a predetermined cyber money.

영상 통화 서비스를 제공하는 서버(200)는 영상 통화 서비스를 이용하는 사용자에 대한 평가 정보를 수신하고, 수신된 평가 정보에 기초하여, 스토리지(230)에 저장된, 사용자의 계정에 대응하는 누적 평가 정보와 평판 지수를 업데이트할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 영상 통화 서비스를 이용하는 사용자의 상대방이 취한 제스처에 대응되는 이모션 정보 또는 아이콘 정보를 사용자에 대한 평가 정보로써 수신할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 이모션 정보의 종류 또는 아이콘 정보의 종류에 따라 가중치를 달리하여, 업데이트된 누적 평가 정보로부터 업데이트된 평판 지수를 획득할 수 있다.The server 200 that provides a video call service receives evaluation information for a user who uses the video call service, and based on the received evaluation information, is stored in the storage 230 and cumulative evaluation information corresponding to the user's account. You can update your reputation index. The server 200 that provides a video call service may receive the emotion information or icon information corresponding to the gesture taken by the other party of the user using the video call service as evaluation information for the user. The server 200 that provides a video call service may obtain an updated reputation index from the updated cumulative evaluation information by varying the weight according to the type of the e-motion information or the type of the icon information.

영상 통화 서비스를 제공하는 서버(200)는 업데이트된 평판 지수에 기초하여, 영상 통화 서비스를 관리할 수 있다. 예를 들어, 영상 통화 서비스를 제공하는 서버(200)는 업데이트된 평판 지수에 기초하여, 영상 통화 서비스를 이용하는 복수의 사용자들을 매칭시키는 영상 통화 매칭 부가 서비스를 제공함으로써, 영상 통화 서비스를 관리할 수 있다. 다른 예를 들어, 영상 통화 서비스를 제공하는 서버(200)는 업데이트된 평판 지수에 기초하여, 영상 통화 서비스를 이용하는 복수의 사용자들을 범주화(categorization)하고, 각 사용자가 속하는 각 범주에 대응되는 사용자 관리 부가 서비스를 제공함으로써, 영상 통화 서비스를 관리할 수 있다.The server 200 providing the video call service may manage the video call service based on the updated reputation index. For example, the server 200 that provides a video call service may manage the video call service by providing a video call matching supplementary service that matches a plurality of users using the video call service based on the updated reputation index. have. For another example, the server 200 that provides the video call service categorizes a plurality of users using the video call service based on the updated reputation index, and manages users corresponding to each category to which the user belongs By providing an additional service, a video call service can be managed.

한편, 영상 통화 서비스를 제공하는 서버(200)는 업데이트된 누적 평가 정보 또는 업데이트된 평판 지수를 통신 인터페이스(240)를 통해 단말(100)로 전송할 수 있다.Meanwhile, the server 200 providing the video call service may transmit the updated cumulative evaluation information or the updated reputation index to the terminal 100 through the communication interface 240.

도 8은 일 실시예에 따라 단말로부터 수신된 평가 정보에 기초한 사용자의 평판 지수에 기초하여 영상 통화 서비스를 관리하는 과정을 설명하기 위한 도면이다.8 is a diagram for explaining a process of managing a video call service based on a reputation index of a user based on evaluation information received from a terminal according to an embodiment.

영상 통화 서비스를 제공하는 서버(200)는 영상 통화 서비스를 이용하는 사용자에 대한 평가 정보를 수신하고, 스토리지(230)에 저장된, 사용자의 계정에 대응하는 누적 평가 정보를 업데이트 할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 사용자의 계정에 대응되는 업데이트된 누적 평가 정보에 기초하여, 사용자의 계정에 대응되는 평판 지수를 업데이트 할 수 있다.The server 200 that provides a video call service may receive evaluation information for a user using the video call service, and may update cumulative evaluation information stored in the storage 230 and corresponding to the user's account. The server 200 providing the video call service may update the reputation index corresponding to the user's account based on the updated cumulative evaluation information corresponding to the user's account.

도 8을 참조하면, 영상 통화 서비스를 제공하는 서버(200)는 제 1 사용자 평가 정보로써, '미소', '좋음(수용)'과 같은 이모션 정보와 '스마일 아이콘', 'OK 아이콘'과 같은 아이콘 정보를 수신할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 수신된 이모션 정보와 아이콘 정보를 누적 이모션 정보와 누적 아이콘 정보에 업데이트 할 수 있다. 이에 따라, 스토리지(230) 내의 제 1 사용자 계정에 대응되는 공간에는 누적 이모션 정보로써 '미소', '좋음(수용)','슬픔', '분노'가 저장되고, 누적 아이콘 정보로써 '스마일 아이콘', 'OK 아이콘', '앵그리 아이콘', '눈물 아이콘'이 저장될 수 있다. 한편, 누적 선호도/기피도 정보에는 기피나 비호감을 의미하는 '다운'이 2번 저장될 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 1 사용자 계정에 대응되는 업데이트된 누적 평가 정보에 기초하여, 평판 지수를 업데이트할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 1 사용자 계정에 대응되는 누적 이모션 정보인 '미소', '좋음(수용)','슬픔', '분노' 각각에 대해 가중치를 달리하여, 제 1 사용자 계정에 대응되는 이모션 평판 지수를 획득할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 1 사용자 계정에 대응되는 누적 아이콘 정보인 '스마일 아이콘', 'OK 아이콘', '앵그리 아이콘', '눈물 아이콘' 각각에 대해 가중치를 달리하여, 제 1 사용자 계정에 대응되는 아이콘 평판 지수를 획득할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 1 사용자 계정에 대응되는 누적 선호도/기피도 정보인 2번의 '다운'에 기초하여 제 1 사용자 계정에 대응되는 선호도/기피도 지수를 획득할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 1 사용자 계정에 대응되는 이모션 평판 지수, 아이콘 평판 지수, 선호도/기피도 지수를 모두 고려하여 제 1 사용자 계정에 대응되는 종합 평판 지수를 획득할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 1 사용자 계정에 대응되는 각 평판 지수의 종류에 따라 가중치를 달리하여 종합 평판 지수를 계산할 수 있다.Referring to FIG. 8, the server 200 that provides a video call service is first user evaluation information, such as'smile','good (accept)','motion icon', and'OK icon'. Icon information can be received. The server 200 that provides a video call service may update the received emotion information and icon information to the accumulated emotion information and the accumulated icon information. Accordingly, in the space corresponding to the first user account in the storage 230,'smile','good (accept)','sadness' and'anger' are stored as cumulative emotion information, and a'smile icon' as cumulative icon information ','OK icon','Angry icon','Tear icon' can be stored. Meanwhile,'down', which means avoidance or dislike, may be stored twice in the cumulative preference/avoidance information. The server 200 providing the video call service may update the reputation index based on the updated cumulative evaluation information corresponding to the first user account. The server 200 that provides a video call service varies the weight for each of the'smile','good (accept)','sadness', and'anger', which are cumulative emotion information corresponding to the first user account. Emotion reputation index corresponding to the user account may be obtained. The server 200 that provides a video call service is provided with different weights for each of the'smile icon','OK icon','angry icon', and'tear icon', which are cumulative icon information corresponding to the first user account. 1 The icon reputation index corresponding to the user account can be obtained. The server 200 that provides a video call service may acquire a preference/avoidance index corresponding to the first user account based on the two'downs' of the cumulative preference/avoidance information corresponding to the first user account. . The server 200 that provides a video call service may obtain a comprehensive reputation index corresponding to the first user account by considering all of the Emotion reputation index, icon reputation index, and preference/avoidance index corresponding to the first user account. . The server 200 that provides the video call service may calculate the overall reputation index by varying the weight according to the type of each reputation index corresponding to the first user account.

도 8을 참조하면, 영상 통화 서비스를 제공하는 서버(200)는 제 2 사용자 평가 정보로써, '웃음', '만족'과 같은 이모션 정보와 '웃는 얼굴 아이콘', '엄지척 아이콘'과 같은 아이콘 정보를 수신할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 수신된 이모션 정보와 아이콘 정보를 누적 이모션 정보와 누적 아이콘 정보에 업데이트 할 수 있다. 이에 따라, 스토리지(230) 내의 제 2 사용자 계정에 대응되는 공간에는 누적 이모션 정보로써 '웃음', '만족','졸림', '언짢음'이 저장되고, 누적 아이콘 정보로써 '웃는 얼굴 아이콘', '엄지척 아이콘', '하품 아이콘', '업세트 아이콘'이 저장될 수 있다. 한편, 누적 선호도/기피도 정보에는 선호나 호감을 의미하는 '업'이 2번 저장될 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 2 사용자 계정에 대응되는 업데이트된 누적 평가 정보에 기초하여, 평판 지수를 업데이트할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 2 사용자 계정에 대응되는 누적 이모션 정보인 '웃음', '만족','졸림', '언짢음' 각각에 대해 가중치를 달리하여, 제 2 사용자 계정에 대응되는 이모션 평판 지수를 획득할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 2 사용자 계정에 대응되는 누적 아이콘 정보인 '웃는 얼굴 아이콘', '엄지척 아이콘', '하품 아이콘', '업세트 아이콘' 각각에 대해 가중치를 달리하여, 제 2 사용자 계정에 대응되는 아이콘 평판 지수를 획득할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 2 사용자 계정에 대응되는 누적 선호도/기피도 정보인 2번의 '업'에 기초하여 제 2 사용자 계정에 대응되는 선호도/기피도 지수를 획득할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 2 사용자 계정에 대응되는 이모션 평판 지수, 아이콘 평판 지수, 선호도/기피도 지수를 모두 고려하여 제 2 사용자 계정에 대응되는 종합 평판 지수를 획득할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 2 사용자 계정에 대응되는 각 평판 지수의 종류에 따라 가중치를 달리하여 종합 평판 지수를 계산할 수 있다.Referring to FIG. 8, the server 200 that provides a video call service is second user evaluation information, such as'smiling','satisfied', emotion information,'smiling face icon', and'thumbs up icon' Information can be received. The server 200 that provides a video call service may update the received emotion information and icon information to the accumulated emotion information and the accumulated icon information. Accordingly, in the space corresponding to the second user account in the storage 230,'laughs','satisfaction','sleepiness' and'unpleasance' are stored as cumulative emotion information, and a'smiley face icon' as cumulative icon information, 'Thumbs up icon','Yawn icon', and'Upset icon' can be stored. Meanwhile,'up', which means preference or favor, may be stored twice in the cumulative preference/avoidance information. The server 200 providing the video call service may update the reputation index based on the updated cumulative evaluation information corresponding to the second user account. The server 200 that provides a video call service has different weights for the accumulated laugh information corresponding to the second user account,'laugh','satisfaction','sleepiness', and'uncomfortable', to the second user account. The corresponding Emotion reputation index can be obtained. The server 200 that provides a video call service has different weights for each of the'smiley face icon','thumbs up icon','yawn icon', and'upset icon', which are cumulative icon information corresponding to the second user account. Thus, an icon reputation index corresponding to the second user account can be obtained. The server 200 providing the video call service may acquire the preference/avoidance index corresponding to the second user account based on the two'ups', which are cumulative preference/avoidance information corresponding to the second user account. . The server 200 that provides a video call service may obtain a comprehensive reputation index corresponding to the second user account by considering all of the Emotion reputation index, icon reputation index, and preference/avoidance index corresponding to the second user account. . The server 200 that provides a video call service may calculate the overall reputation index by varying the weight according to the type of each reputation index corresponding to the second user account.

영상 통화 서비스를 제공하는 서버(200)는 이와 같이 업데이트된 평판 지수에 기초하여, 영상 통화 서비스를 관리할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 이모션 평판 지수, 아이콘 평판 지수, 선호도/기피도 지수, 및 종합 평판 지수 중 적어도 하나에 기초하여, 영상 통화 서비스를 관리할 수 있다.The server 200 providing the video call service may manage the video call service based on the updated reputation index. The server 200 that provides a video call service may manage the video call service based on at least one of an Emotion reputation index, an icon reputation index, a preference/avoidance index, and a comprehensive reputation index.

도 8을 참조하면, 영상 통화 서비스를 제공하는 서버(200)는 업데이트된 평판 지수에 기초하여, 영상 통화 서비스를 이용하는 복수의 사용자들을 매칭시키는 영상 통화 매칭 부가 서비스를 제공함으로써, 영상 통화 서비스를 관리할 수 있다. 예를 들어, 영상 통화 서비스를 제공하는 서버(200)는 영상 통화 서비스를 이용하는 복수의 사용자들 각각의 업데이트된 평판 지수에 기초하여, 평판 지수가 같은 범주 내에 있는 사람들끼리 영상 통화 매칭을 시키거나, 유료 사용자에게 평판 지수가 높은 평판 좋은 사용자와 영상 통화 매칭을 시키거나, 영상 통화 서비스 신규 가입자에게 평판 지수가 높은 평판 좋은 사용자와 영상 통화 매칭을 시키는 등의 영상 통화 매칭 부가 서비스를 제공할 수 있다.Referring to FIG. 8, the server 200 that provides a video call service manages a video call service by providing a video call matching additional service that matches a plurality of users using the video call service based on the updated reputation index can do. For example, the server 200 that provides a video call service performs video call matching among people who have the same reputation index based on the updated reputation index of each of a plurality of users using the video call service, It is possible to provide a video call matching additional service such as making a video call match with a reputable user with a high reputation index for a paid user, or making a video call match with a reputable user with a high reputation index for a new video call service.

또한, 영상 통화 서비스를 제공하는 서버(200)는 업데이트된 평판 지수에 기초하여, 영상 통화 서비스를 이용하는 복수의 사용자들을 범주화하고, 각 사용자가 속하는 각 범주에 대응되는 사용자 관리 부가 서비스를 제공함으로써, 영상 통화 서비스를 관리할 수 있다. 예를 들어, 영상 통화 서비스를 제공하는 서버(200)는 영상 통화 서비스를 이용하는 복수의 사용자들 각각의 업데이트된 평판 지수에 기초하여, 영상 통화 서비스를 이용하는 복수의 사용자들을 범주화하고, 각 범주 별로 다른 혜택을 제공하거나, 평판 지수가 낮은 범주의 사용자에게 블랙리스트에 오르지 않도록 미리 경고하거나, 평판 지수 임계치보다 평판 지수가 낮은 범주의 사용자에게 영상 통화 서비스의 사용을 일시적으로 또는 영구적으로 제한하는 등의 각 사용자가 속하는 각 범주에 대응되는 사용자 관리 부가 서비스를 제공할 수 있다.In addition, the server 200 providing the video call service categorizes a plurality of users using the video call service based on the updated reputation index, and provides a user management supplementary service corresponding to each category to which the user belongs, You can manage the video call service. For example, the server 200 providing the video call service categorizes the plurality of users using the video call service based on the updated reputation index of each of the plurality of users using the video call service, and is different for each category. For example, to provide benefits, to warn users in categories with a low reputation score to not blacklist, or to temporarily or permanently restrict the use of video calling services to users in a category with a reputation score below the reputation score threshold. A user management supplementary service corresponding to each category to which the user belongs may be provided.

도 9는 일 실시예에 따라 영상 통화 서비스의 사용자의 제스처에 대응되는 평가 정보를 생성하여 영상 통화 서비스를 제공하는 방법을 설명하기 위한 흐름도이다. 9 is a flowchart for explaining a method for providing a video call service by generating evaluation information corresponding to a gesture of a user of a video call service according to an embodiment.

블록 910에서, 제 1 단말(100-1)은 제 1 사용자의 제 1 단말(100-1)과 영상 통화의 상대방인 제 2 사용자의 제 2 단말(100-2) 간의 영상 통화 세션을 수립할 수 있다.In block 910, the first terminal 100-1 establishes a video call session between the first terminal 100-1 of the first user and the second terminal 100-2 of the second user that is the other party of the video call. Can be.

블록 920에서, 제 1 단말(100-1)은 제 1 사용자를 촬영한 제 1 영상 스트림 또는 제 2 단말(100-2)로부터 수신된, 제 2 사용자를 촬영한 제 2 영상 스트림에서 제 1 사용자 또는 제 2 사용자의 제스처를 검출할 수 있다. In block 920, the first terminal 100-1 is the first user in the first video stream photographing the first user or the second video stream photographing the second user received from the second terminal 100-2. Alternatively, the gesture of the second user can be detected.

제 1 단말(100-1)에서 제 1 사용자의 제스처를 검출하는 경우, 제 1 단말(100-1)은 제 1 단말(100-1)에서 촬영한, 제 1 영상 스트림에서 제 1 사용자의 표정, 몸짓, 및 행동 중 적어도 하나의 제스처를 검출할 수 있다. When the gesture of the first user is detected by the first terminal 100-1, the first terminal 100-1 expresses the first user's facial expression in the first video stream captured by the first terminal 100-1 , Gestures, and gestures.

제 1 단말(100-1)에서 제 2 사용자의 제스처를 검출하는 경우, 제 1 단말(100-1)은 제 2 단말(100-2)로부터 수신된, 제 2 영상 스트림에서 제 2 사용자의 표정, 몸짓, 및 행동 중 적어도 하나의 제스처를 검출할 수 있다.When the gesture of the second user is detected by the first terminal 100-1, the first terminal 100-1 is the facial expression of the second user in the second video stream received from the second terminal 100-2 , Gestures, and gestures.

블록 930에서, 제 1 단말(100-1)은 검출된 제스처에 기초하여, 검출된 제스처를 취한 사용자의 상대방에 대한 평가 정보를 생성할 수 있다. 제 1 단말(100-1)은 검출된 제스처에 대응되는 이모션 정보 또는 아이콘 정보를 상대방에 대한 평가 정보로써 생성할 수 있다.In block 930, the first terminal 100-1 may generate evaluation information on the counterpart of the user who took the detected gesture based on the detected gesture. The first terminal 100-1 may generate emotion information or icon information corresponding to the detected gesture as evaluation information for the other party.

제 1 단말(100-1)에서 제 1 사용자의 제스처를 검출하는 경우, 제 1 단말(100-1)은 검출된 제스처에 기초하여, 제 2 사용자에 대한 평가 정보를 생성할 수 있다. When the first terminal 100-1 detects the gesture of the first user, the first terminal 100-1 may generate evaluation information for the second user based on the detected gesture.

제 1 단말(100-1)에서 제 2 사용자의 제스처를 검출하는 경우, 제 1 단말(100-1)은 검출된 제스처에 기초하여, 제 1 사용자에 대한 평가 정보를 생성할 수 있다.When the gesture of the second user is detected by the first terminal 100-1, the first terminal 100-1 may generate evaluation information for the first user based on the detected gesture.

블록 940에서, 제 1 단말(100-1)은 생성된 평가 정보를 영상 통화 서비스를 제공하는 서버(200)로 전송할 수 있다.In block 940, the first terminal 100-1 may transmit the generated evaluation information to the server 200 that provides a video call service.

제 1 단말(100-1)에서 제 1 사용자의 제스처를 검출하는 경우, 제 1 단말(100-1)은 생성된 제 2 사용자에 대한 평가 정보를 제 2 사용자의 계정에 대응시켜 서버(200)로 전송할 수 있다.When the gesture of the first user is detected by the first terminal 100-1, the first terminal 100-1 associates the generated evaluation information for the second user with the account of the second user, and then the server 200. Can be transferred to.

제 1 단말(100-1)에서 제 2 사용자의 제스처를 검출하는 경우, 제 1 단말(100-1)은 생성된 제 1 사용자에 대한 평가 정보를 제 1 사용자의 계정에 대응시켜 서버(200)로 전송할 수 있다.When the gesture of the second user is detected by the first terminal 100-1, the first terminal 100-1 associates the generated evaluation information for the first user with the account of the first user, so that the server 200 Can be transferred to.

제 1 단말(100-1)에서 제 1 사용자의 제스처를 검출하는 경우, 제 1 단말(100-1)은 생성된 제 2 사용자에 대한 평가 정보를 제 2 단말(100-2)로 전송할 수 있다. 또한, 제 1 단말(100-1)은 제 2 단말(100-2)로부터 제 1 사용자에 대한 평가 정보를 수신하고, 수신된 제 1 사용자에 대한 평가 정보를 제 2 영상 스트림이 디스플레이되는 영역에 중첩하여 디스플레이할 수 있다.When the gesture of the first user is detected by the first terminal 100-1, the first terminal 100-1 may transmit evaluation information for the generated second user to the second terminal 100-2. . In addition, the first terminal 100-1 receives evaluation information for the first user from the second terminal 100-2, and the received evaluation information for the first user is displayed in an area where the second video stream is displayed. It can be superimposed and displayed.

제 1 단말(100-1)에서 제 2 사용자의 제스처를 검출하는 경우, 제 1 단말(100-1)은 생성된 제 1 사용자에 대한 평가 정보를 제 2 영상 스트림이 디스플레이되는 영역에 중첩하여 디스플레이할 수 있다.When the gesture of the second user is detected by the first terminal 100-1, the first terminal 100-1 displays the generated evaluation information for the first user overlapping the area where the second video stream is displayed. can do.

도 10은 일 실시예에 따라 사용자의 평판 지수에 기초하여 영상 통화 서비스를 제공하는 방법을 설명하기 위한 흐름도이다.10 is a flowchart illustrating a method of providing a video call service based on a reputation index of a user according to an embodiment.

블록 1010에서, 영상 통화 서비스를 제공하는 서버(200)는 영상 통화를 지원하는 단말(100)로부터 영상 통화 서비스를 이용하는 사용자에 대한 평가 정보를 수신할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 영상 통화 서비스를 이용하는 사용자의 상대방이 취한 제스처에 대응되는 이모션 정보 또는 아이콘 정보를 사용자에 대한 평가 정보로써 수신할 수 있다.In block 1010, the server 200 that provides a video call service may receive evaluation information for a user using the video call service from the terminal 100 that supports the video call. The server 200 that provides a video call service may receive the emotion information or icon information corresponding to the gesture taken by the other party of the user using the video call service as evaluation information for the user.

블록 1020에서, 영상 통화 서비스를 제공하는 서버(200)는 수신된 평가 정보에 기초하여, 스토리지(230)에 저장된, 사용자의 계정에 대응하는 누적 평가 정보와 평판 지수를 업데이트할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 이모션 정보의 종류 또는 아이콘 정보의 종류에 따라 가중치를 달리하여, 업데이트된 누적 평가 정보로부터 업데이트된 평판 지수를 획득할 수 있다.In block 1020, the server 200 providing the video call service may update the accumulated evaluation information and reputation index corresponding to the user's account, stored in the storage 230, based on the received evaluation information. The server 200 that provides a video call service may obtain an updated reputation index from the updated cumulative evaluation information by varying the weight according to the type of the e-motion information or the type of the icon information.

블록 1030에서, 영상 통화 서비스를 제공하는 서버(200)는 업데이트된 평판 지수에 기초하여, 영상 통화 서비스를 관리할 수 있다. 예를 들어, 영상 통화 서비스를 제공하는 서버(200)는 업데이트된 평판 지수에 기초하여, 영상 통화 서비스를 이용하는 복수의 사용자들을 매칭시키는 영상 통화 매칭 부가 서비스를 제공함으로써, 영상 통화 서비스를 관리할 수 있다. 다른 예를 들어, 영상 통화 서비스를 제공하는 서버(200)는 업데이트된 평판 지수에 기초하여, 영상 통화 서비스를 이용하는 복수의 사용자들을 범주화하고, 각 사용자가 속하는 각 범주에 대응되는 사용자 관리 부가 서비스를 제공함으로써, 영상 통화 서비스를 관리할 수 있다.In block 1030, the server 200 that provides the video call service may manage the video call service based on the updated reputation index. For example, the server 200 that provides a video call service may manage the video call service by providing a video call matching supplementary service that matches a plurality of users using the video call service based on the updated reputation index. have. For another example, the server 200 providing the video call service categorizes a plurality of users using the video call service based on the updated reputation index, and provides a user management supplementary service corresponding to each category to which the user belongs. By providing, it is possible to manage the video call service.

영상 통화 서비스를 제공하는 서버(200)는 업데이트된 누적 평가 정보 또는 업데이트된 평판 지수를 통신 인터페이스(240)를 통해 영상 통화 서비스를 이용하는 단말로 전송할 수 있다. The server 200 providing the video call service may transmit the updated cumulative evaluation information or the updated reputation index to the terminal using the video call service through the communication interface 240.

상술한 영상 통화 서비스의 사용자의 제스처에 대응되는 평가 정보를 생성하여 영상 통화 서비스를 제공하는 방법에 관한 실시예들은 영상 통화 서비스를 제공하는 단말(100)에서, 영상 통화 서비스의 사용자의 제스처에 대응되는 평가 정보를 생성하여 영상 통화 서비스를 제공하는 방법을 수행하도록 하는 컴퓨터 판독가능 저장매체에 저장된 애플리케이션 형태로 제공될 수 있다. 다시 말해서, 단말(100)로 하여금 상술한 영상 통화 서비스를 제공하는 방법의 각 단계를 실행시키기 위한 컴퓨터 판독가능 저장매체에 저장된 애플리케이션 또는 컴퓨터 프로그램 형태로 제공될 수 있다.Embodiments of a method for providing a video call service by generating evaluation information corresponding to a gesture of a user of the video call service described above correspond to a user's gesture of the video call service in the terminal 100 that provides the video call service It can be provided in the form of an application stored in a computer-readable storage medium to perform a method of providing a video call service by generating evaluation information. In other words, the terminal 100 may be provided in the form of an application or computer program stored in a computer-readable storage medium for executing each step of the method for providing the video call service described above.

사용자의 평판 지수에 기초하여 영상 통화 서비스를 제공하는 방법에 관한 실시예들은 서버(200)에서, 사용자의 평판 지수에 기초하여 영상 통화 서비스를 제공하는 방법을 수행할 수 있도록 컴퓨터 판독가능 저장매체에 저장된 컴퓨터 프로그램 형태로 제공될 수 있다. 다시 말해서, 서버(200)로 하여금 상술한 영상 통화 서비스를 제공하는 방법의 각 단계를 실행시키기 위한 컴퓨터 판독가능 저장매체에 저장된 컴퓨터 프로그램 또는 애플리케이션 형태로 제공될 수 있다.Embodiments of a method for providing a video call service based on a user's reputation index are provided in a computer readable storage medium so that the server 200 can perform a method of providing a video call service based on the user's reputation index. It may be provided in the form of a stored computer program. In other words, the server 200 may be provided in the form of a computer program or application stored in a computer-readable storage medium for executing each step of the method for providing the video call service described above.

상술한 실시예들은 컴퓨터 또는 프로세서에 의하여 실행 가능한 명령어 또는 데이터를 저장하는 컴퓨터 판독 가능 저장매체의 형태로 구현될 수 있다. 상기 명령어 및 데이터 중 적어도 하나는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 소정의 프로그램 모듈을 생성하여 소정의 동작을 수행할 수 있다. 이와 같은 컴퓨터 판독 가능 저장매체는 read-only memory (ROM), random-access memory (RAM), flash memory, CD-ROMs, CD-Rs, CD+Rs, CD-RWs, CD+RWs, DVD-ROMs, DVD-Rs, DVD+Rs, DVD-RWs, DVD+RWs, DVD-RAMs, BD-ROMs, BD-Rs, BD-R LTHs, BD-REs, 마그네틱 테이프, 플로피 디스크, 광자기 데이터 저장 장치, 광학 데이터 저장 장치, 하드 디스크, 솔리드-스테이트 디스크(SSD), 그리고 명령어 또는 소프트웨어, 관련 데이터, 데이터 파일, 및 데이터 구조들을 저장할 수 있고, 프로세서나 컴퓨터가 명령어를 실행할 수 있도록 프로세서나 컴퓨터에 명령어 또는 소프트웨어, 관련 데이터, 데이터 파일, 및 데이터 구조들을 제공할 수 있는 어떠한 장치라도 될 수 있다. The above-described embodiments may be implemented in the form of a computer-readable storage medium that stores instructions or data executable by a computer or processor. At least one of the instructions and data may be stored in the form of program code, and when executed by a processor, a predetermined program module may be generated to perform a predetermined operation. Computer-readable storage media such as read-only memory (ROM), random-access memory (RAM), flash memory, CD-ROMs, CD-Rs, CD+Rs, CD-RWs, CD+RWs, DVD-ROMs , DVD-Rs, DVD+Rs, DVD-RWs, DVD+RWs, DVD-RAMs, BD-ROMs, BD-Rs, BD-R LTHs, BD-REs, magnetic tapes, floppy disks, magneto-optical data storage devices, An optical data storage device, a hard disk, a solid-state disk (SSD), and instructions or software, associated data, data files, and data structures, and instructions or instructions to the processor or computer to enable the processor or computer to execute the instructions or It can be any device capable of providing software, related data, data files, and data structures.

이제까지 실시예들을 중심으로 살펴보았다. 개시된 실시예들이 속하는 기술 분야에서 통상의 지식을 가진 자는 개시된 실시예들이 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 발명의 범위는 전술한 실시예들의 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 발명의 범위에 포함된 것으로 해석되어야 할 것이다.So far, we have focused on the embodiments. Those of ordinary skill in the art to which the disclosed embodiments belong will understand that the disclosed embodiments may be implemented in a modified form without departing from essential characteristics. Therefore, the disclosed embodiments should be considered in terms of explanation, not limitation. The scope of the invention is shown in the claims rather than the description of the above-described embodiments, and all differences within the equivalent scope should be interpreted as being included in the scope of the invention.

Claims (15)

제 1 단말에서,
제 1 사용자의 상기 제 1 단말과 영상 통화의 상대방인 제 2 사용자의 제 2 단말 간의 영상 통화 세션을 수립하는 단계;
상기 제 1 사용자를 촬영한 제 1 영상 스트림 또는 상기 제 2 단말로부터 수신된, 상기 제 2 사용자를 촬영한 제 2 영상 스트림에서, 상기 제 1 사용자 또는 상기 제 2 사용자의 제스처를 검출하는 단계;
상기 검출된 제스처를 취한 사용자의 상대방에 대한 평가 정보 - 상기 평가 정보는 상기 상대방이 유발하여 상기 사용자가 취한 상기 검출된 제스처에 기초하여 생성됨 - 를 생성하는 단계; 및
상기 생성된 평가 정보를 영상 통화 서비스를 제공하는 서버로 전송하는 단계;
를 포함하는 영상 통화 서비스를 제공하는 방법을 수행하도록 하는 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션.
In the first terminal,
Establishing a video call session between the first user's first terminal and a second user's second terminal that is a video call counterpart;
Detecting a gesture of the first user or the second user in a first video stream photographing the first user or a second video stream photographing the second user received from the second terminal;
Generating evaluation information on the counterpart of the user who took the detected gesture, wherein the evaluation information is generated based on the detected gesture taken by the user by the counterpart; And
Transmitting the generated evaluation information to a server providing a video call service;
An application stored in a computer-readable storage medium to perform a method of providing a video call service comprising a.
제 1 항에 있어서,
상기 상대방에 대한 평가 정보를 생성하는 단계는,
상기 검출된 제스처에 대응되는 이모션 정보 또는 아이콘 정보를 상기 상대방에 대한 평가 정보로써 생성하는, 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션.
According to claim 1,
The step of generating evaluation information for the other party may include:
An application stored in a computer-readable storage medium that generates emotion information or icon information corresponding to the detected gesture as evaluation information for the other party.
제 1 항에 있어서,
상기 제 1 사용자의 제스처를 검출하는 경우,
상기 제스처를 검출하는 단계는,
상기 제 1 단말에서 촬영한, 상기 제 1 영상 스트림에서 상기 제 1 사용자의 표정, 몸짓, 및 행동 중 적어도 하나의 제스처를 검출하고,
상기 상대방에 대한 평가 정보를 생성하는 단계는,
상기 검출된 제스처에 기초하여, 상기 제 2 사용자에 대한 평가 정보를 생성하며,
상기 서버로 전송하는 단계는,
상기 생성된 제 2 사용자에 대한 평가 정보를 상기 제 2 사용자의 계정에 대응시켜 상기 서버로 전송하는, 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션.
According to claim 1,
When detecting the gesture of the first user,
Step of detecting the gesture,
Detecting at least one gesture of a facial expression, a gesture, and an action of the first user in the first video stream photographed by the first terminal,
The step of generating evaluation information for the counterpart may include:
Based on the detected gesture, evaluation information for the second user is generated,
The step of transmitting to the server,
An application stored in a computer-readable storage medium that transmits the evaluation information for the generated second user to the server in association with the account of the second user.
제 3 항에 있어서,
상기 생성된 제 2 사용자에 대한 평가 정보를 상기 제 2 단말로 전송하는 단계를 포함하는, 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션.
The method of claim 3,
And transmitting evaluation information for the generated second user to the second terminal.
제 3 항에 있어서,
상기 제 2 단말로부터 제 1 사용자에 대한 평가 정보를 수신하는 단계; 및
상기 수신된 제 1 사용자에 대한 평가 정보를 상기 제 2 영상 스트림이 디스플레이되는 영역에 중첩하여 디스플레이하는 단계;
를 포함하는, 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션.
The method of claim 3,
Receiving evaluation information for a first user from the second terminal; And
Displaying the evaluation information for the first user superimposed on an area where the second video stream is displayed;
An application stored in a computer-readable storage medium, including.
제 1 항에 있어서,
상기 제 2 사용자의 제스처를 검출하는 경우,
상기 제스처를 검출하는 단계는,
상기 제 2 단말로부터 수신된, 상기 제 2 영상 스트림에서 상기 제 2 사용자의 표정, 몸짓, 및 행동 중 적어도 하나의 제스처를 검출하고,
상기 상대방에 대한 평가 정보를 생성하는 단계는,
상기 검출된 제스처에 기초하여, 상기 제 1 사용자에 대한 평가 정보를 생성하며,
상기 서버로 전송하는 단계는,
상기 생성된 제 1 사용자에 대한 평가 정보를 상기 제 1 사용자의 계정에 대응시켜 상기 서버로 전송하는, 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션.
According to claim 1,
When detecting the gesture of the second user,
Step of detecting the gesture,
Detecting at least one gesture of the expression, gesture, and behavior of the second user in the second video stream received from the second terminal,
The step of generating evaluation information for the other party may include:
Based on the detected gesture, evaluation information for the first user is generated,
The step of transmitting to the server,
An application stored in a computer-readable storage medium that transmits the generated evaluation information for the first user to the server in association with the account of the first user.
제 6 항에 있어서,
상기 생성된 제 1 사용자에 대한 평가 정보를 상기 제 2 영상 스트림이 디스플레이되는 영역에 중첩하여 디스플레이하는 단계를 포함하는, 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션.
The method of claim 6,
And superimposing and displaying evaluation information for the generated first user on an area in which the second video stream is displayed, an application stored in a computer-readable storage medium.
영상 통화를 지원하는 단말과 통신을 수행하는 통신 인터페이스;
스토리지;
프로세서; 및
상기 프로세서에 의해 실행 가능한 명령어들을 저장하는 메모리;를 포함하고,
상기 프로세서는, 상기 명령어들을 실행함으로써, 상기 단말로부터 영상 통화 서비스를 이용하는 사용자에 대한 평가 정보 - 상기 평가 정보는 상기 사용자가 유발하여 상기 영상 통화 서비스의 상대방이 취한 제스처에 기초하여 생성됨 - 를 수신하고, 상기 수신된 평가 정보에 기초하여, 상기 스토리지에 저장된, 상기 사용자의 계정에 대응하는 누적 평가 정보와 평판 지수를 업데이트하며, 상기 업데이트된 평판 지수에 기초하여, 상기 영상 통화 서비스를 관리하는, 영상 통화 서비스를 제공하는 서버.
A communication interface performing communication with a terminal supporting video calling;
storage;
Processor; And
It includes; a memory for storing instructions executable by the processor;
The processor, by executing the instructions, receives evaluation information about a user who uses a video call service from the terminal, wherein the evaluation information is generated based on a gesture taken by a counterpart of the video call service triggered by the user. , Update the cumulative evaluation information and reputation index corresponding to the user's account, stored in the storage, based on the received evaluation information, and manage the video call service based on the updated reputation index. A server that provides call services.
제 8 항에 있어서,
상기 프로세서는,
상기 영상 통화 서비스를 이용하는 상기 사용자의 상기 상대방이 취한 제스처에 대응되는 이모션 정보 또는 아이콘 정보를 상기 사용자에 대한 평가 정보로써 수신하는, 영상 통화 서비스를 제공하는 서버.
The method of claim 8,
The processor,
A server for providing a video call service, which receives, as evaluation information for the user, emoji information or icon information corresponding to a gesture taken by the other party of the user using the video call service.
제 9 항에 있어서,
상기 프로세서는,
상기 이모션 정보의 종류 또는 상기 아이콘 정보의 종류에 따라 가중치를 달리하여, 상기 업데이트된 누적 평가 정보로부터 상기 업데이트된 평판 지수를 획득하는, 영상 통화 서비스를 제공하는 서버.
The method of claim 9,
The processor,
A server that provides a video call service by obtaining the updated reputation index from the updated cumulative evaluation information by varying weights according to the type of the emotion information or the type of the icon information.
제 8 항에 있어서,
상기 프로세서는,
상기 업데이트된 평판 지수에 기초하여, 상기 영상 통화 서비스를 이용하는 복수의 사용자들을 매칭시키는 영상 통화 매칭 부가 서비스를 제공함으로써, 상기 영상 통화 서비스를 관리하는, 영상 통화 서비스를 제공하는 서버.
The method of claim 8,
The processor,
A server providing a video call service, managing the video call service by providing a video call matching supplementary service that matches a plurality of users using the video call service based on the updated reputation index.
제 8 항에 있어서,
상기 프로세서는,
상기 업데이트된 평판 지수에 기초하여, 상기 영상 통화 서비스를 이용하는 복수의 사용자들을 범주화하고, 각 사용자가 속하는 각 범주에 대응되는 사용자 관리 부가 서비스를 제공함으로써, 상기 영상 통화 서비스를 관리하는, 영상 통화 서비스를 제공하는 서버.
The method of claim 8,
The processor,
Video call service that manages the video call service by categorizing a plurality of users using the video call service and providing a user management supplementary service corresponding to each category to which each user belongs, based on the updated reputation index Server that provides.
제 8 항에 있어서,
상기 프로세서는,
상기 업데이트된 누적 평가 정보 또는 상기 업데이트된 평판 지수를 상기 통신 인터페이스를 통해 상기 단말로 전송하는, 영상 통화 서비스를 제공하는 서버.
The method of claim 8,
The processor,
A server providing a video call service, transmitting the updated cumulative evaluation information or the updated reputation index to the terminal through the communication interface.
제 8 항에 있어서,
상기 스토리지는,
상기 영상 통화 서비스를 이용하는 복수의 사용자들 각각의 사용자의 계정 별로, 복수 종류의 누적 평가 정보와 각 누적 평가 정보에 대응되는 평판 지수 및 모든 종류의 평판 지수를 반영한 종합 평판 지수를 저장하는, 영상 통화 서비스를 제공하는 서버.
The method of claim 8,
The storage,
For each account of each of a plurality of users using the video call service, a video call storing a plurality of types of cumulative evaluation information, a reputation index corresponding to each cumulative evaluation information, and a comprehensive reputation index reflecting all kinds of reputation indices Server providing the service.
제 1 사용자의 제 1 단말과 영상 통화의 상대방인 제 2 사용자의 제 2 단말 간의 영상 통화 세션을 수립하는 명령어들;
상기 제 1 사용자를 촬영한 제 1 영상 스트림 또는 상기 제 2 단말로부터 수신된, 상기 제 2 사용자를 촬영한 제 2 영상 스트림에서 상기 제 1 사용자 또는 상기 제 2 사용자의 제스처를 검출하는 명령어들;
상기 검출된 제스처를 취한 사용자의 상대방에 대한 평가 정보 - 상기 평가 정보는 상기 상대방이 유발하여 상기 사용자가 취한 상기 검출된 제스처에 기초하여 생성됨 - 를 생성하는 명령어들; 및
상기 생성된 평가 정보를 영상 통화 서비스를 제공하는 서버로 전송하는 명령어들;
을 포함하는 프로세서에 의해 실행 가능한 명령어들이 저장된 비일시적 컴퓨터 판독 가능 저장매체.
Instructions for establishing a video call session between a first terminal of a first user and a second terminal of a second user that is a counterpart of a video call;
Instructions for detecting a gesture of the first user or the second user in a first image stream photographing the first user or a second image stream photographing the second user, received from the second terminal;
Instructions for generating evaluation information on the counterpart of the user who took the detected gesture, wherein the evaluation information is generated based on the detected gesture taken by the user by the counterpart; And
Instructions for transmitting the generated evaluation information to a server providing a video call service;
A non-transitory computer readable storage medium storing instructions executable by a processor comprising a.
KR1020170182782A 2017-11-08 2017-12-28 Terminal and server providing a video call service KR102120871B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/198,161 US10554698B2 (en) 2017-12-28 2018-11-21 Terminal and server providing video call service

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170148293 2017-11-08
KR20170148293 2017-11-08

Publications (2)

Publication Number Publication Date
KR20190052584A KR20190052584A (en) 2019-05-16
KR102120871B1 true KR102120871B1 (en) 2020-06-09

Family

ID=66672230

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170182782A KR102120871B1 (en) 2017-11-08 2017-12-28 Terminal and server providing a video call service

Country Status (1)

Country Link
KR (1) KR102120871B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112308591A (en) * 2019-08-02 2021-02-02 中国移动通信有限公司研究院 User evaluation method, device, equipment and computer readable storage medium
KR102249501B1 (en) * 2019-11-25 2021-05-11 라인플러스 주식회사 Method, system, and computer program for providing ruputation badge for video chat

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110012491A (en) * 2009-07-30 2011-02-09 에스케이텔레콤 주식회사 System, management server, terminal and method for transmitting of message using image data and avatar
KR20130022434A (en) * 2011-08-22 2013-03-07 (주)아이디피쉬 Apparatus and method for servicing emotional contents on telecommunication devices, apparatus and method for recognizing emotion thereof, apparatus and method for generating and matching the emotional contents using the same
KR101654837B1 (en) * 2014-02-18 2016-09-06 에스케이 텔레콤주식회사 Method and Apparatus for Providing Counterpart's Reputation

Also Published As

Publication number Publication date
KR20190052584A (en) 2019-05-16

Similar Documents

Publication Publication Date Title
US10939071B2 (en) Terminal for providing video call service
US11140356B2 (en) Terminal and server for providing video call service
US20180329209A1 (en) Methods and systems of smart eyeglasses
US10552004B2 (en) Method for providing application, and electronic device therefor
KR102034838B1 (en) Terminal and server providing a video call service
WO2017213861A1 (en) Communicating information via a computer-implemented agent
WO2020207413A1 (en) Content pushing method, apparatus, and device
KR102616403B1 (en) Electronic device and method for delivering message thereof
KR101979650B1 (en) Server and operating method thereof
KR102120871B1 (en) Terminal and server providing a video call service
US9977510B1 (en) Gesture-driven introduction system
US10554698B2 (en) Terminal and server providing video call service
CN109150976A (en) The method, apparatus and storage medium of security service are provided
KR102034839B1 (en) Terminal and server providing a video call service
KR102132341B1 (en) Terminal and server providing a video call service
US20230254448A1 (en) Camera-less representation of users during communication sessions

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant