KR20190052584A - Terminal and server providing a video call service - Google Patents
Terminal and server providing a video call service Download PDFInfo
- Publication number
- KR20190052584A KR20190052584A KR1020170182782A KR20170182782A KR20190052584A KR 20190052584 A KR20190052584 A KR 20190052584A KR 1020170182782 A KR1020170182782 A KR 1020170182782A KR 20170182782 A KR20170182782 A KR 20170182782A KR 20190052584 A KR20190052584 A KR 20190052584A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- terminal
- video call
- call service
- evaluation information
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
-
- G06K9/00221—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
-
- H04M1/72522—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/52—Details of telephonic subscriber devices including functional features of a camera
Abstract
Description
영상 통화 서비스를 제공하는 단말과 영상 통화 서비스를 제공하는 서버에 관한 것이다.To a terminal providing a video call service and a server providing a video call service.
과학 기술의 발전에 따라, 대부분의 사람들이 스마트 폰, 태블릿 PC와 같은 단말을 보유하게 되었다. 이와 같은 단말은 영상을 촬영하고, 재생할 수 있으며, 다른 단말과 통신을 수행하여 정보를 주고받거나, 영상 통화(video call)를 지원할 수 있다. With the development of science and technology, most people have terminals such as smart phones and tablet PCs. Such a terminal can photograph and reproduce images, communicate with other terminals to exchange information, and support video calls.
한편, 영상 통화를 기반으로 하는 다양한 종류의 영상 통화 서비스가 존재한다. 예를 들어, 랜덤 영상 채팅 서비스는 랜덤 영상 채팅 서비스 이용 요청을 한 사용자의 단말을 랜덤 영상 채팅 서비스를 이용하는 사용자들 중 무작위로 선정된 사용자의 단말과 연결시켜주는 서비스이다.Meanwhile, various types of video call services based on video calls exist. For example, the random video chat service is a service for connecting a terminal of a user who requests a random video chat service use to a terminal of a randomly selected user among users using a random video chat service.
영상 통화 서비스의 사용자의 제스처에 대응되는 평가 정보를 생성하여 영상 통화 서비스를 제공하는 단말과 단말로부터 수신된 평가 정보에 기초한 사용자의 평판 지수에 기초하여 영상 통화 서비스를 제공하는 서버를 제공하는 것이다.There is provided a server for providing a video call service based on rating information of a user based on evaluation information received from a terminal and a terminal providing a video call service by generating evaluation information corresponding to a gesture of a user of the video call service.
제 1 측면에 따른 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션은, 제 1 단말에서, 제 1 사용자의 상기 제 1 단말과 영상 통화의 상대방인 제 2 사용자의 제 2 단말 간의 영상 통화 세션을 수립하는 단계; 상기 제 1 사용자를 촬영한 제 1 영상 스트림 또는 상기 제 2 단말로부터 수신된, 상기 제 2 사용자를 촬영한 제 2 영상 스트림에서 상기 제 1 사용자 또는 상기 제 2 사용자의 제스처를 검출하는 단계; 상기 검출된 제스처에 기초하여, 상기 검출된 제스처를 취한 사용자의 상대방에 대한 평가 정보를 생성하는 단계; 및 상기 생성된 평가 정보를 영상 통화 서비스를 제공하는 서버로 전송하는 단계;를 포함하는 영상 통화 서비스를 제공하는 방법을 수행할 수 있다.An application stored in a computer-readable storage medium according to the first aspect includes the steps of establishing a video call session between a first terminal of a first user and a second terminal of a second user, Detecting a gesture of the first user or the second user in a first video stream of the first user or a second video stream of the second user, the second video stream being received from the second terminal; Generating evaluation information on a counterpart of a user who has taken the detected gesture based on the detected gesture; And transmitting the generated evaluation information to a server for providing a video call service.
제 2 측면에 따른 영상 통화 서비스를 제공하는 서버는, 영상 통화를 지원하는 단말과 통신을 수행하는 통신 인터페이스; 스토리지; 프로세서; 및 상기 프로세서에 의해 실행 가능한 명령어들을 저장하는 메모리;를 포함하고, 상기 프로세서는, 상기 명령어들을 실행함으로써, 상기 단말로부터 영상 통화 서비스를 이용하는 사용자에 대한 평가 정보를 수신하고, 상기 수신된 평가 정보에 기초하여, 상기 스토리지에 저장된, 상기 사용자의 계정에 대응하는 누적 평가 정보와 평판 지수를 업데이트하며, 상기 업데이트된 평판 지수에 기초하여, 상기 영상 통화 서비스를 관리한다. A server for providing a video call service according to a second aspect includes: a communication interface for performing communication with a terminal supporting a video call; storage; A processor; And a memory for storing instructions executable by the processor, wherein the processor is configured to receive the evaluation information for the user using the video call service from the terminal by executing the instructions, Updates cumulative evaluation information and reputation index corresponding to the user's account stored in the storage, and manages the video call service based on the updated reputation index.
제 3 측면에 따른 프로세서에 의해 실행 가능한 명령어들이 저장된 비일시적 컴퓨터 판독 가능 저장매체는, 제 1 사용자의 상기 제 1 단말과 영상 통화의 상대방인 제 2 사용자의 제 2 단말 간의 영상 통화 세션을 수립하는 명령어들; 상기 제 1 사용자를 촬영한 제 1 영상 스트림 또는 상기 제 2 단말로부터 수신된, 상기 제 2 사용자를 촬영한 제 2 영상 스트림에서 상기 제 1 사용자 또는 상기 제 2 사용자의 제스처를 검출하는 명령어들; 상기 검출된 제스처에 기초하여, 상기 검출된 제스처를 취한 사용자의 상대방에 대한 평가 정보를 생성하는 명령어들; 및 상기 생성된 평가 정보를 영상 통화 서비스를 제공하는 서버로 전송하는 명령어들;을 포함한다.The non-volatile computer readable storage medium having stored thereon instructions executable by the processor according to the third aspect establishes a video call session between the first terminal of the first user and the second terminal of the second user, Commands; Instructions for detecting a gesture of the first user or the second user in a first video stream captured by the first user or a second video stream captured from the second terminal and captured by the second user; Instructions for generating rating information for a party of a user who has taken the detected gesture based on the detected gesture; And transmitting the generated evaluation information to a server providing a video call service.
도 1은 영상 통화 서비스가 제공되는 환경을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 단말의 구성을 나타낸 블록도이다.
도 3은 일 실시예에 따른 영상 통화 서비스를 제공하는 서버의 구성을 나타낸 블록도이다.
도 4는 다른 실시예에 따른 영상 통화 서비스를 제공하는 서버가 복수 개의 분산 서버들로 구현된 모습을 설명하기 위한 도면이다.
도 5는 일 실시예에 따라 제 1 사용자의 제스처에 기초하여 제 2 사용자에 대한 평가 정보를 생성하는 과정를 설명하기 위한 도면이다.
도 6은 일 실시예에 따라 제 2 사용자의 제스처에 기초하여 제 1 사용자에 대한 평가 정보를 생성하는 과정를 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 영상 통화 서비스를 제공하는 서버의 스토리지에 저장된 정보의 종류를 설명하기 위한 도면이다.
도 8은 일 실시예에 따라 단말로부터 수신된 평가 정보에 기초한 사용자의 평판 지수에 기초하여 영상 통화 서비스를 관리하는 과정을 설명하기 위한 도면이다.
도 9는 일 실시예에 따라 영상 통화 서비스의 사용자의 제스처에 대응되는 평가 정보를 생성하여 영상 통화 서비스를 제공하는 방법을 설명하기 위한 흐름도이다.
도 10은 일 실시예에 따라 사용자의 평판 지수에 기초하여 영상 통화 서비스를 제공하는 방법을 설명하기 위한 흐름도이다.1 is a diagram illustrating an environment in which a video call service is provided.
2 is a block diagram illustrating a configuration of a UE according to an exemplary embodiment of the present invention.
3 is a block diagram illustrating a configuration of a server for providing a video call service according to an exemplary embodiment of the present invention.
4 is a diagram for explaining how a server providing a video call service according to another embodiment is implemented by a plurality of distributed servers.
5 is a diagram illustrating a process of generating evaluation information for a second user based on a gesture of a first user according to an embodiment.
6 is a diagram for explaining a process of generating evaluation information for a first user based on a gesture of a second user according to an embodiment.
7 is a view for explaining the types of information stored in a storage of a server providing a video call service according to an exemplary embodiment.
8 is a diagram for explaining a process of managing a video call service based on a reputation index of a user based on evaluation information received from a terminal according to an embodiment.
9 is a flowchart illustrating a method of generating evaluation information corresponding to a gesture of a user of a video call service and providing a video call service according to an exemplary embodiment of the present invention.
FIG. 10 is a flowchart illustrating a method of providing a video call service based on a reputation index of a user according to an embodiment.
이하에서는 도면을 참조하여 다양한 실시예들을 상세히 설명한다. 이하에서 설명되는 실시예들은 여러 가지 상이한 형태로 변형되어 실시될 수도 있다. 실시예들의 특징을 보다 명확히 설명하기 위하여 이하의 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서 자세한 설명은 생략한다.Hereinafter, various embodiments will be described in detail with reference to the drawings. The embodiments described below may be modified and implemented in various different forms. In order to more clearly describe the features of the embodiments, a detailed description of known matters to those skilled in the art will be omitted.
한편, 본 명세서에서 어떤 구성이 다른 구성과 "연결"되어 있다고 할 때, 이는 '직접적으로 연결'되어 있는 경우뿐 아니라, '그 중간에 다른 구성을 사이에 두고 연결'되어 있는 경우도 포함한다. 또한, 어떤 구성이 다른 구성을 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한, 그 외 다른 구성을 제외하는 것이 아니라 다른 구성들 더 포함할 수도 있다는 것을 의미한다.In the present specification, when a configuration is referred to as being " connected " with another configuration, it includes not only a case of being directly connected, but also a case of being connected with another configuration in between. Also, when an element is referred to as " including " another element, it is to be understood that the element may include other elements as well as other elements.
또한, 본 명세서에서 사용되는 '제 1' 또는 '제 2' 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용할 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. In addition, terms including ordinals such as 'first' or 'second' used in this specification can be used to describe various elements, but the elements should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
본 실시예들은 영상 통화 서비스를 제공하는 단말과 영상 통화 서비스를 제공하는 서버에 관한 것으로서 이하의 실시예들이 속하는 기술 분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서는 자세한 설명을 생략한다.The present embodiments are directed to a terminal providing a video call service and a server providing a video call service, and a detailed description of widely known matters to those skilled in the art will be omitted. do.
도 1은 영상 통화 서비스가 제공되는 환경을 설명하기 위한 도면이다.1 is a diagram illustrating an environment in which a video call service is provided.
영상 통화 서비스는 복수의 사용자들이 각자의 단말을 이용하여 자신의 영상을 상대방에게 전송하고 상대방의 영상을 수신함으로써 의사를 주고받을 수 있는 서비스를 의미한다. 영상 통화 서비스를 이용하는 사용자들은 각자의 단말을 통해, 영상과 음성을 주고받을 수 있으며, 채팅 기능을 통해 텍스트를 주고 받을 수도 있다. 영상 통화 서비스를 이용하려는 사용자는 상대방을 직접 지정하거나, 영상 통화 서비스를 제공하는 서버에서 랜덤 또는 소정의 방식에 따라 상대방을 지정해줌으로써, 상대방과 영상 통화 서비스를 이용할 수 있다. A video call service means a service in which a plurality of users transmit their images to each other using their own terminals and receive and receive images of the other party. Users who use the video call service can send and receive video and voice through their terminals, and can send and receive text through the chat function. A user who wishes to use the video call service can designate the other party directly or use the video call service with the other party by designating the other party in a random or predetermined manner in a server providing the video call service.
도 1을 참조하면, 단말(100)이 통신망을 통해 영상 통화 서비스를 제공하는 서버(200)와 연결되어 있다. 서버(200)는 복수의 사용자들이 각자의 단말(100)을 이용하여 영상 통화 서비스를 이용할 수 있도록 도와주는 각종 프로그램 또는 애플리케이션과 데이터를 저장할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 근거리 통신 및 원격지 통신을 모두 수행할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 통신망을 통해 복수의 단말(100)들과 연결될 수 있다. 단말(100)은 영상 통화 서비스를 제공하는 서버(200)와의 연결에 이용될 수 있는 다양한 종류의 사용자 단말이 될 수 있다. 예를 들어, 단말(100)은 영상 통화 서비스를 제공하는 서버(200)와 통신을 수행할 수 있는 장치로서, 스마트 왓치와 같은 웨어러블 장치, 스마트 폰, 태블릿 PC, 랩톱 컴퓨터와 같은 모바일 장치, 데스크톱 컴퓨터와 같은 스테이셔너리 장치 등이 될 수 있다. 또한, 단말(100)은 영상 통화 서비스를 통해 연결되는 사용자들 간 영상 통화가 이루어질 수 있도록, 영상을 촬영하고 재생할 수 있는, 영상 통화를 지원하는 영상 통화 장치일 수 있다.Referring to FIG. 1, a
도 2는 일 실시예에 따른 단말(100)의 구성을 나타낸 블록도이다.2 is a block diagram illustrating a configuration of a
도 2를 참고하면, 단말(100)은 메모리(110), 프로세서(120), 사용자 인터페이스(130), 통신 인터페이스(140), 음성 및 영상 입력부(150)를 포함할 수 있다. 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 도 2에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 알 수 있다.2, the
메모리(110)는 소프트웨어 또는 프로그램을 저장할 수 있다. 예를 들어, 메모리(110)는 애플리케이션, 애플리케이션 프로그래밍 인터페이스(API) 등과 같은 프로그램 및 다양한 종류의 데이터를 저장할 수 있다. 메모리(110)는 프로세서(120)에 의해 실행 가능한 명령어들을 저장할 수 있다. The
프로세서(120)는 메모리(110)에 저장된 명령어들을 실행할 수 있다. 프로세서(120)는 메모리(110)에 저장된 각종 프로그램, 컨텐츠, 데이터를 이용하거나, 또는 새로운 프로그램, 컨텐츠, 데이터를 메모리(110)에 저장할 수도 있다. The
프로세서(120)는 메모리(110)에 액세스하여, 메모리(110)에 저장된 O/S를 이용하여 부팅을 수행할 수 있다. 프로세서(120)는 메모리(110)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행할 수 있다. 예를 들어, 프로세서(120)는 메모리(110)에 저장된 각종 프로그램, 컨텐츠, 데이터를 이용하여, 디스플레이(136)에 소정의 화면을 표시할 수 있다. 프로세서(120)는 디스플레이(136)의 일 영역에 대한 사용자 조작이 이루어지면, 사용자의 조작에 대응되는 제어 동작을 수행할 수 있다. The
프로세서(120)는 그래픽 처리에 특화된 GPU(Graphic Processing Unit)를 포함할 수 있다. GPU는 단말(100)의 부팅이 완료되면, 디스플레이(136)의 영역에 사용자 인터페이스 화면을 디스플레이한다. 구체적으로는, GPU는 컨텐츠, 아이콘, 메뉴 등과 같은 다양한 객체를 포함하는 영상 통화 레이아웃이 표시된 화면을 생성할 수 있다. GPU는 화면의 영상 통화 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산할 수 있다. 그리고, GPU는 연산된 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성할 수 있다. GPU에서 생성된 화면은 디스플레이(136)로 제공되어, 디스플레이(136)의 각 영역에 각각 표시될 수 있다.The
한편, 프로세서(120)는 비디오 프로세서와 오디오 프로세서를 포함할 수 있다. 프로세서(120)는 비디오 프로세서와 오디오 프로세서를 제어하여, 통신 인터페이스(140)를 통해 수신된 영상 스트림 또는, 메모리(110)에 저장된 영상 스트림에 포함된 비디오 데이터 또는 오디오 데이터를 처리할 수 있다.Meanwhile, the
사용자 인터페이스(130)는 입력부(131)와 출력부(135)를 포함할 수 있다.The
입력부(131)는 사용자로부터 다양한 명령어를 입력받을 수 있다. 입력부(131)는 키패드(132), 터치 패널(133) 및 펜 인식 패널(134) 중 적어도 하나를 포함할 수 있다. The
키패드(132)는 단말(100)의 본체 외관의 전면부나 측면부, 배면부 등의 다양한 영역에 형성된 기계적 버튼, 휠 등과 같은 다양한 유형의 키를 포함할 수 있다.The keypad 132 may include various types of keys, such as mechanical buttons, wheels, etc., formed in various areas such as the front or side portions of the body exterior of the terminal 100,
터치 패널(133)은 사용자의 터치 입력을 감지하고, 감지된 터치 신호에 해당하는 터치 이벤트 값을 출력할 수 있다. 터치 패널(133)이 표시 패널과 결합하여 터치 스크린을 구성한 경우, 터치 스크린은 정전식이나, 감압식, 압전식 등과 같은 다양한 유형의 터치 센서로 구현될 수 있다. The
펜 인식 패널(134)은 사용자의 터치용 펜(예컨대, 스타일러스 펜(stylus pen))의 운용에 따른 펜의 근접 입력 또는 터치 입력을 감지하고 감지된 펜 근접 이벤트 또는 펜 터치 이벤트를 출력할 수 있다. 펜 인식 패널(134)은, 예로, EMR 방식으로 구현될 수 있으며, 펜의 근접 또는 터치에 의한 전자기장의 세기 변화에 따라 터치 또는 근접 입력을 감지할 수 있다. 펜 인식 패널(134)은 그리드 구조를 가지는 전자 유도 코일 센서와 전자 유도 코일 센서의 각 루프 코일에 순차적으로 소정의 주파수를 가지는 교류 신호를 제공하는 전자 신호 처리부를 포함하여 구성될 수 있다. The
출력부(135)는 디스플레이(136), 스피커(137)를 포함할 수 있다. The
디스플레이(136)는 표시 패널 및 표시 패널을 제어하는 컨트롤러를 포함할 수 있다. 표시 패널은 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, AM-OLED(Active-Matrix Organic Light-Emitting Diode), PDP(Plasma Display Panel) 등과 같은 다양한 방식으로 구현될 수 있다. 표시 패널은 유연하게(flexible) 또는 착용할 수 있게(wearable) 구현될 수 있다. 디스플레이(136)는 입력부(131)의 터치 패널(133)과 결합되어 터치 스크린으로 제공될 수 있다. The
스피커(137)는 오디오 데이터에 기초하여 소리를 출력할 수 있다. 예를 들어, 스피커(137)는 영상 스트림에 포함된 오디오 데이터에 따라, 사용자의 음성을 출력할 수 있다.The
통신 인터페이스(140)는 다양한 유형의 통신방식에 따라 다양한 유형의 외부 기기와 통신을 수행할 수 있다. 통신 인터페이스(140)는 와이파이 칩, 블루투스 칩, NFC 칩, 무선통신 칩 중 적어도 하나를 포함할 수 있다. 프로세서(120)는 통신 인터페이스(140)를 이용하여 각종 외부 기기와 통신을 수행할 수 있다.The
와이파이 칩, 블루투스 칩은 각각 WiFi 방식, 블루투스 방식으로 통신을 수행할 수 있다. 와이파이 칩이나 블루투스 칩을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. NFC 칩은 다양한 RF-ID 주파수 대역들 중에서 13.56MHz 대역을 사용하는 NFC(Near Field Communication) 방식으로 동작하는 칩을 의미한다. 무선 통신 칩은 IEEE(Institute of Electrical and Electronics Engineers), 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), 5G(5th Generation) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다. The Wi-Fi chip and the Bluetooth chip can perform communication using the WiFi method and the Bluetooth method, respectively. When a Wi-Fi chip or a Bluetooth chip is used, various connection information such as an SSID and a session key may be transmitted and received first, and communication information may be used to transmit and receive various information. The NFC chip refers to a chip operating in the NFC (Near Field Communication) mode using the 13.56 MHz band among various RF-ID frequency bands. The wireless communication chip can communicate with various communication standards such as IEEE (Institute of Electrical and Electronics Engineers), ZigBee, 3rd Generation (3G), 3rd Generation Partnership Project (3GPP), LTE (Long Term Evolution), 5G Quot; chip "
음성 및 영상 입력부(150)는 마이크(151)와 카메라(153)를 포함할 수 있다. 마이크(151)는 사용자 음성이나 기타 소리를 입력받아 오디오 데이터로 변환할 수 있다. 프로세서(120)는 마이크(151)를 통해 입력되는 사용자 음성을 영상 통화에 이용하거나, 오디오 데이터로 변환하여 메모리(110)에 저장할 수 있다. 카메라(153)는 사용자의 제어에 따라 정지 영상 또는 동영상을 촬영할 수 있다. 카메라(153)는 단말(100)의 전면 또는 후면에 위치한 카메라 모듈일 수 있다. 프로세서(120)는 마이크(151)를 통해 입력되는 음성과 카메라(153)에 의해 촬영되는 영상을 이용하여, 영상 통화를 위한 영상 스트림을 생성할 수 있다. The audio and
한편, 단말(100)은 모션 제어 모드나 음성 제어 모드로 동작할 수 있다. 모션 제어 모드로 동작하는 경우, 프로세서(120)는 카메라(153)를 활성화시켜 사용자를 촬영하고, 사용자의 모션 변화를 추적하여 그에 대응되는 제어 동작을 수행할 수 있다. 음성 제어 모드로 동작하는 경우, 프로세서(120)는 마이크(151)를 통해 입력된 사용자 음성을 분석하고, 분석된 사용자 음성에 따라 제어 동작을 수행할 수 있다. Meanwhile, the terminal 100 can operate in a motion control mode or a voice control mode. When operating in the motion control mode, the
전술한 단말(100)의 구성 요소들의 명칭은 달라질 수 있다. 또한, 본 개시에 따른 단말(100)은 전술한 구성요소들 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 단말(100)은 전술한 구성요소들 중 적어도 하나를 이용하여, 다음과 같은 동작을 수행할 수 있다.The names of the components of the terminal 100 may vary. In addition, the terminal 100 according to the present disclosure may be configured to include at least one of the above-described components, and some components may be omitted or further include other additional components. The terminal 100 may perform the following operations using at least one of the above-described components.
도 3은 일 실시예에 따른 영상 통화 서비스를 제공하는 서버(200)의 구성을 나타낸 블록도이다. 3 is a block diagram illustrating a configuration of a
도 3을 참조하면, 영상 통화 서비스를 제공하는 서버(200)는 메모리(210), 프로세서(220), 스토리지(230), 통신 인터페이스(240)을 포함한다. 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 도 3에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 알 수 있다. 도 3의 블록도의 각 구성요소는 영상 통화 서비스를 제공하는 서버(200)의 구현 방식에 따라 분리, 추가, 또는 생략될 수 있다. 즉, 구현 방식에 따라 하나의 구성요소가 2 이상의 구성요소로 세분화되거나, 2 이상의 구성요소가 하나의 구성요소로 합쳐질 수도 있고, 일부 구성요소가 더 추가되거나 제거될 수 있다. Referring to FIG. 3, a
메모리(210)는 프로세서(220)에 의해 실행 가능한 명령어들을 저장할 수 있다. 메모리(210)는 소프트웨어 또는 프로그램을 저장할 수 있다. The
프로세서(220)는 메모리(210)에 저장된 명령어들을 실행할 수 있다. 프로세서(220)는 영상 통화 서비스를 제공하는 서버(200)의 전반적인 제어를 수행할 수 있다. 프로세서(220)는 통신 인터페이스(240)를 통해 수신되는 정보 및 요청 사항을 획득하고, 수신되는 정보를 스토리지(230)에 저장할 수 있다. 또한, 프로세서(220)는 수신되는 정보를 가공할 수 있다. 예를 들어, 프로세서(220)는 단말(100)로부터 수신되는 정보로부터 영상 통화 서비스에 이용되는 정보를 생성하거나, 수신되는 정보들을 관리하기 위한 가공행위를 수행하여, 스토리지(230)에 저장할 수 있다. 또한, 프로세서(220)는 단말(100)로부터 획득된 요청 사항에 대한 응답으로써, 스토리지(230)에 저장된 정보를 이용하여, 통신 인터페이스(240)를 통해 단말(100)에 영상 통화 서비스를 제공하기 위한 정보를 전송할 수 있다.The
스토리지(230)는 영상 통화 서비스를 제공하는 서버(200)가 영상 통화 서비스를 제공하기 위해 필요한 각종 소프트웨어 및 정보들을 저장할 수 있다. 예를 들어, 스토리지(230)는 영상 통화 서비스를 제공하는 서버(200)에서 실행되는 프로그램, 애플리케이션, 및 영상 통화 서비스에 이용되는 각종 데이터를 저장할 수 있다. The
스토리지(230)는 영상 통화 서비스를 이용하는 사용자별 개인 정보를 데이터베이스화하여 저장 및 관리할 수 있다. 스토리지(230)는 영상 통화 서비스를 제공하는 서버(200)에 접속하기 위한 계정별로 사용자의 신상 정보와 영상 통화 서비스에 이용되는 다양한 정보 등을 저장할 수 있다. The
통신 인터페이스(240)는 단말(100)을 포함한 외부 기기와 통신을 수행할 수 있다. 예를 들어, 영상 통화 서비스를 제공하는 서버(200)는 단말(100)로부터 영상 통화 서비스 개시 요청, 영상 통화 서비스 환경을 갖추기 위한 설정 정보에 대한 요청 등을 수신하고, 단말(100)의 요청에 대한 응답으로, 영상 통화 서비스와 관련된 모든 사항들을 제공할 수 있다.The
도 4는 다른 실시예에 따라 영상 통화 서비스를 제공하는 서버(200)가 복수 개의 분산 서버들로 구현된 모습을 설명하기 위한 도면이다. 이상에서 영상 통화 서비스를 제공하는 서버(200)와 관련하여 기재된 내용은 이하 생략된 내용이라 하더라도 그대로 적용될 수 있다.FIG. 4 is a diagram for explaining how a
도 4를 참고하면, 영상 통화 서비스를 제공하는 분산 서버들은 부하 분산 서버(200-1)와 영상 통화 서비스를 제공하는 기능 서버들(200-3, 200-5, 200-7)로 구성될 수 있다. 부하 분산 서버(200-1)는 단말(100)과 같은 외부 기기의 영상 통화 서비스에 관한 요청이 있을 때, 영상 통화 서비스를 제공하는 기능 서버들(200-3, 200-5, 200-7) 중 임의의 서버를 결정하여 단말(100)에 연결시키거나, 영상 통화 서비스를 제공하는 기능 서버들(200-3, 200-5, 200-7)의 상태를 모니터링하여 최적의 서버를 선택하여 단말(100)에 연결시킬 수 있다.4, the distributed servers providing the video call service may include a load distribution server 200-1 and function servers 200-3, 200-5, and 200-7 for providing a video call service. have. The load balancing server 200-1 includes function servers 200-3, 200-5, and 200-7 that provide a video call service when there is a request for a video call service of an external device such as the terminal 100, And selects an optimal server by monitoring the statuses of the function servers 200-3, 200-5, and 200-7 that provide video call services to the terminal 100, (100).
도 5는 일 실시예에 따라 제 1 사용자의 제스처에 기초하여 제 2 사용자에 대한 평가 정보를 생성하는 과정를 설명하기 위한 도면이다.5 is a diagram illustrating a process of generating evaluation information for a second user based on a gesture of a first user according to an embodiment.
도 5를 참조하면, 제 1 사용자와 영상 통화의 상대방인 제 2 사용자는 각각 제 1 단말(100-1)과 제 2 단말(100-2)을 통해 영상 통화를 할 수 있다. 제 1 단말(100-1)과 제 2 단말(100-2)은 영상 통화 서비스 제공자 측에서 제공한 영상 통화 서비스를 제공하기 위한 애플리케이션이 설치되어 있을 수 있다. 제 1 단말(100-1)과 제 2 단말(100-2)은 영상 통화 서비스를 제공하기 위한 애플리케이션을 실행하여, 영상 통화 서비스를 제공하는 서버(200)에 연결될 수 있고, 서버(200)에서 제공하는 영상 통화 서비스를 받을 수 있다. Referring to FIG. 5, the second user, who is the other party of the video call with the first user, can make a video call through the first terminal 100-1 and the second terminal 100-2, respectively. The first terminal 100-1 and the second terminal 100-2 may be provided with an application for providing a video call service provided by the video call service provider. The first terminal 100-1 and the second terminal 100-2 can be connected to a
제 1 단말(100-1)은 영상 통화 서비스를 제공하는 서버(200)에 영상 통화 서비스의 이용 요청을 전송할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 1 단말(100-1)의 영상 통화 서비스의 이용 요청에 응답하여, 영상 통화의 상대방인 제 2 사용자의 제 2 단말(100-2)과 영상 통화가 이루어질 수 있도록, 영상 통화에 요구되는 정보들을 제 1 단말(100-1)에 제공할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 1 단말(100-1)의 영상 통화 서비스의 이용 요청에 따라, 영상 통화의 상대방을 랜덤으로 선정하거나, 소정의 규칙에 따라 선정하거나, 제 1 사용자가 지정한 상대방으로 선정할 수 있다. 제 1 사용자의 제 1 단말(100-1)과 제 2 사용자의 제 2 단말(100-2)은 영상 통화를 위해 상호 간에 영상 통화 세션을 수립할 수 있다. The first terminal 100-1 may transmit a request for using the video call service to the
제 1 단말(100-1)과 제 2 단말(100-2) 간의 영상 통화 세션이 수립되면, 제 1 사용자를 촬영한 제 1 영상 스트림은 제 1 단말(100-1)에서 제 2 단말(100-2)로 전송되고, 제 2 사용자를 촬영한 제 2 영상 스트림은 제 2 단말(100-2)에서 제 1 단말(100-1)로 전송될 수 있다. 제 1 단말(100-1)은 제 2 단말(100-2)로부터 제 2 영상 스트림을 수신하고, 제 2 단말(100-2)은 제 1 단말(100-1)로부터 제 1 영상 스트림을 수신할 수 있다.When a video call session is established between the first terminal 100-1 and the second terminal 100-2, the first video stream captured by the first user is transmitted from the first terminal 100-1 to the second terminal 100-1 -2), and the second video stream captured by the second user may be transmitted from the second terminal 100-2 to the first terminal 100-1. The first terminal 100-1 receives the second video stream from the second terminal 100-2 and the second terminal 100-2 receives the first video stream from the first terminal 100-1 can do.
제 1 단말(100-1)은 제 1 사용자를 촬영한 제 1 영상 스트림 또는 제 2 단말로부터 수신된, 제 2 사용자를 촬영한 제 2 영상 스트림을 획득할 수 있다. 제 2 단말(100-2)은 제 2 사용자를 촬영한 제 2 영상 스트림 또는 제 1 단말(100-1)로부터 수신된, 제 1 사용자를 촬영한 제 1 영상 스트림을 획득할 수 있다. The first terminal 100-1 may acquire the first video stream of the first user or the second video stream of the second user, which is received from the second terminal. The second terminal 100-2 can acquire the second video stream captured by the second user or the first video stream captured by the first terminal 100-1 and captured by the first user.
제 1 단말(100-1)은 제 2 영상 스트림에 기초하여 제 2 사용자의 영상을 제 1 단말(100-1)의 화면에 디스플레이할 수 있고, 제 1 영상 스트림에 기초하여 제 1 사용자의 영상을 제 2 사용자의 영상이 디스플레이되는 화면 영역의 일부 영역에 디스플레이할 수 있다. 제 2 단말(100-2)은 제 1 영상 스트림에 기초하여 제 1 사용자의 영상을 제 2 단말(100-2)의 화면에 디스플레이할 수 있고, 제 2 영상 스트림에 기초하여 제 2 사용자의 영상을 제 1 사용자의 영상이 디스플레이되는 화면 영역의 일부 영역에 디스플레이할 수 있다. 도 5에 도시된 바와 같이, 제 1 단말(100-1)은 제 1 단말(100-1)의 화면에 제 2 사용자의 영상을 디스플레이함과 동시에 제 1 사용자의 영상을 제 1 단말(100-1)의 화면의 일부 영역에 더 작은 디스플레이 사이즈로 디스플레이할 수 있다. 제 2 단말(100-2)은 제 2 단말(100-2)의 화면에 제 1 사용자의 영상을 디스플레이함과 동시에 제 2 사용자의 영상을 제 2 단말(100-2)의 화면의 일부 영역에 더 작은 디스플레이 사이즈로 디스플레이할 수 있다.The first terminal 100-1 can display the image of the second user on the screen of the first terminal 100-1 based on the second video stream and can display the image of the first user 100-1 on the basis of the first video stream, Can be displayed in a part of the screen area where the image of the second user is displayed. The second terminal 100-2 can display the image of the first user on the screen of the second terminal 100-2 based on the first video stream and can display the image of the second user 100-2 on the basis of the second video stream, Can be displayed in a part of the screen area where the image of the first user is displayed. 5, the first terminal 100-1 displays an image of the second user on the screen of the first terminal 100-1 and transmits the image of the first user to the first terminal 100-1, 1) in a smaller display size in a part of the screen. The second terminal 100-2 displays the image of the first user on the screen of the second terminal 100-2 and the image of the second user on the screen of the second terminal 100-2 It is possible to display with a smaller display size.
제 1 단말(100-1)과 제 2 단말(100-2)은 영상 통화 서비스를 제공하기 위한 동일한 애플리케이션이 각각 실행되고, 제 1 사용자와 제 2 사용자 간의 영상 통화가 이루어지면, 제 1 단말(100-1)과 제 2 단말(100-2) 각각의 동작 및 애플리케이션 상의 기능은 동일하므로, 이하, 제 1 단말(100-1)을 중심으로 설명하고, 제 2 단말(100-2)에 대한 설명은 생략한다.When the first terminal 100-1 and the second terminal 100-2 execute the same application for providing a video call service and a video call is made between the first user and the second user, The functions of the first terminal 100-1 and the second terminal 100-2 are the same as those of the first terminal 100-1 and the second terminal 100-2, The description is omitted.
제 1 단말(100-1)과 제 2 단말(100-2)에서 상호 간 영상 통화 서비스가 실행되면, 제 1 단말(100-1)은 제 1 사용자를 촬영한 제 1 영상 스트림에서 제 1 사용자의 제스처를 검출할 수 있다. 제 1 단말(100-1)은 제 1 단말(100-1)에서 촬영한, 제 1 영상 스트림에서 제 1 사용자의 표정, 몸짓, 및 행동 중 적어도 하나의 제스처를 검출할 수 있다.When a video call service is executed between the first terminal 100-1 and the second terminal 100-2, the first terminal 100-1 transmits the first video stream from the first video stream captured by the first user, Can be detected. The first terminal 100-1 may detect at least one gesture among the first user's facial expressions, gestures, and behaviors in the first video stream captured by the first terminal 100-1.
제스처는, 예를 들어, 사용자가 얼굴, 손, 몸 등을 이용하여 전달하는 비언어적 의사소통을 의미하며, 표정, 손짓, 몸짓 등이 될 수 있다. 사용자는 제스처를 취함으로써, 자신의 의사를 상대방에게 전달하거나, 상대방에게 어떤 반응을 유도해 낼 수 있다. 표정은, 예를 들어, 사용자가 얼굴을 통해 눈, 눈썹, 코, 입, 이마, 볼 등을 움직임으로써 자신의 생각을 나타내는 것이다. 예를 들어, 표정은 눈을 깜빡이기, 눈을 크게 만들거나 감기, 입꼬리 올리기, 입을 벌리기, 입술을 깨물기, 이마 찌푸리기 등이 될 수 있다. 손짓은, 예를 들어, 사용자가 손을 소정의 형상이나 액션을 취하게 함으로써, 몸짓은 사용자가 몸을 소정의 형상이나 액션을 취하게 함으로써 자신의 생각을 나타내는 것이다. 손짓은 OK 사인, 엄지를 위로 올리거나 아래로 내리기, 'V'자 만들기, 손을 앞뒤로 흔들기, 손을 좌우로 흔들기 등이 될 수 있다. 몸짓은 몸을 비틀기, 어깨를 들썩이기, 팔짱기기 등이 될 수 있다.The gesture means, for example, non-verbal communication that a user transmits using a face, a hand, and a body, and can be a facial expression, a hand gesture, a gesture, and the like. By taking a gesture, the user can communicate his or her intention to the other party or induce a response to the other party. The expression is, for example, a user expressing his or her thoughts by moving eyes, eyebrows, noses, mouths, foreheads, balls, etc. through the face. For example, facial expressions can be blinking eyes, making the eyes bigger or cold, raising the lips, spreading the mouth, licking the lips, frowning the forehead. The gesture, for example, allows the user to take a predetermined shape or action with the hand, and the gesture shows the user's thought by letting the user take a predetermined shape or action. A hand gesture can be an OK sign, a thumb up or down, a 'V' hand, a hand waving back and forth, and a hand waving right and left. A gesture can be a twist, a shoulder shake, or an arm-brace.
도 5를 참조하면, 제 1 단말(100-1)은 제 2 사용자가 미소 짓는 영상을 제 1 단말(100-1)의 화면에 디스플레이하고, 제 1 사용자가 웃음 짓는 영상을 제 2 사용자의 영상이 디스플레이되는 화면 영역의 좌측 하단 영역에 디스플레이하고 있다. 제 1 단말(100-1)은 제 1 사용자를 촬영한 제 1 영상 스트림에서 제 1 사용자의 웃음 짓는 표정을 검출할 수 있다. 예를 들어, 제 1 사용자가 엄지를 위로 올리는 손짓을 하면, 제 1 단말(100-1)은 제 1 영상 스트림에서 엄지를 위로 올리는 제 1 사용자의 손짓을 검출할 수도 있다. 제 1 단말(100-1)은 제 1 영상 스트림에서 제 1 사용자의 얼굴, 손, 몸에 있는 특징점에 기초하여, 제 1 영상 스트림에서 제 1 사용자의 제스쳐를 검출할 수 있다. 제 1 단말(100-1)은 실시간 또는 소정의 인터벌 간격으로 제 1 사용자의 제스쳐를 연속적으로 검출할 수 있다.Referring to FIG. 5, the first terminal 100-1 displays a smile image of the second user on the screen of the first terminal 100-1, and displays an image laughed by the first user on the screen of the second user 100-1 Is displayed in the lower left area of the screen area to be displayed. The first terminal 100-1 can detect the smile of the first user in the first video stream captured by the first user. For example, when the first user makes a gesture to raise the thumb, the first terminal 100-1 may detect the beck of the first user to raise the thumb in the first video stream. The first terminal 100-1 can detect the gesture of the first user in the first video stream based on the feature points in the face, hand, and body of the first user in the first video stream. The first terminal 100-1 may continuously detect the gesture of the first user at a real time or a predetermined interval interval.
제 1 단말(100-1)은 검출된 제 1 사용자의 제스처에 기초하여, 검출된 제스처를 취한 제 1 사용자의 상대방인 제 2 사용자에 대한 평가 정보를 생성할 수 있다. 제 1 단말(100-1)은 검출된 제스처에 대응되는 이모션 정보 또는 아이콘 정보를 제 2 사용자에 대한 평가 정보로써 생성할 수 있다.The first terminal 100-1 can generate the evaluation information for the second user, which is the opponent of the first user who took the detected gesture, based on the detected gesture of the first user. The first terminal 100-1 may generate the emotion information or the icon information corresponding to the detected gesture as the evaluation information for the second user.
제스처는 사용자가 의식적으로 또는 무의식적으로 얼굴, 손, 몸 등을 이용하여 자신의 의사를 나타낸 것이므로, 제스처 각각은 대응되는 이모션 정보가 있을 수 있다. 이모션 정보는 제스처에 따른 사용자의 감정이거나 감정을 불러일으키는 기분, 분위기, 표현 자체를 의미할 수 있다. 예를 들어, 이모션 정보는 기쁨, 행복, 분노, 즐거움, 괴로움, 슬픔, 우울함, 졸림, 따분함, 궁금함, 언짢음, 만족, 미소, 웃음, 윙크, 울음, 긍정, 부정, 좋음(수용), 싫음(거절) 등이 될 수 있다.Since the gesture is a user consciously or unconsciously expressing his or her intention using a face, a hand, or a body, each gesture may have corresponding emotion information. The emotion information may be a feeling of the user depending on the gesture, a feeling of mood, an atmosphere, or expression itself. For example, the emotion information may be a joy, happiness, anger, pleasure, bitterness, sadness, depression, drowsiness, dullness, anxiety, laughter, satisfaction, smile, laughter, wink, crying, affirmation, (Refusal).
또한, 제스처 각각은 대응되는 아이콘 정보가 있을 수 있다. 아이콘 정보는 제스처와 닮은꼴로 그 제스처를 직관적으로 묘사하거나, 제스처에 대응되는 이모션 정보를 나타내는 그림이나 기호일 수 있다. 예를 들어, 아이콘 정보는 사용자의 표정, 손짓, 몸짓 각각에 대응되는 형상이나 모양의 그림을 포함하거나, 이모션 정보를 표현하는 기호 또는 문자를 포함할 수 있다.Also, each gesture may have corresponding icon information. The icon information may be a picture or symbol that intuitively depicts the gesture in a manner similar to a gesture, or represents the information of the emotion corresponding to the gesture. For example, the icon information may include a picture of a shape or a shape corresponding to each of the user's facial expressions, hand gestures, or gestures, or may include symbols or characters representing emotion information.
도 5를 참조하면, 제 1 단말(100-1)은 검출된 제 1 사용자의 웃음 짓는 표정에 기초하여, 제 2 사용자에 대한 평가 정보를 생성할 수 있다. 예를 들어, 제 1 단말(100-1)은 제 1 사용자의 웃음 짓는 표정에 대응되는 '웃음'이라는 이모션 정보 또는 '웃는 얼굴 아이콘'이라는 아이콘 정보를 웃음 짓는 표정을 취한 제 1 사용자의 상대방인 제 2 사용자에 대한 평가 정보로써 생성할 수 있다. 다른 예를 들어, 제 1 사용자가 엄지를 위로 올리는 손짓을 하면, 제 1 단말(100-1)은 제 1 사용자의 엄지를 위로 올리는 손짓에 기초하여, 제 1 사용자의 엄지를 위로 올리는 손짓에 대응되는 '만족'이라는 이모션 정보 또는 '엄지척 아이콘'이라는 아이콘 정보를 엄지를 위로 올리는 손짓을 취한 제 1 사용자의 상대방인 제 2 사용자에 대한 평가 정로써 생성할 수도 있다. 제 1 사용자가 취한 제스처는 제 2 사용자의 태도나 행위에 대한 응답이므로, 제 1 영상 스트림에서 제 1 사용자의 제스처가 검출되면, 검출된 제스처를 유발한 제 1 사용자의 상대방인 제 2 사용자에 대한 평가 정보가 되는 것이다.Referring to FIG. 5, the first terminal 100-1 may generate evaluation information for the second user based on the laughing expression of the detected first user. For example, the first terminal 100-1 may be an opponent of the first user who takes a smiling face of the 'smile' or 'smile icon' corresponding to the smile of the first user And can be generated as evaluation information for the second user. In another example, if the first user makes a gesture to raise the thumb, the first terminal 100-1 responds to the gesture of raising the thumb of the first user on the basis of the gesture of raising the thumb of the first user Quot; thumbnail icon ", or " thumbnail icon ", which is a counterpart of the first user who has picked up the thumb, may be generated as an evaluation criterion for the second user. Since the gesture taken by the first user is a response to the attitude or behavior of the second user, if a gesture of the first user is detected in the first video stream, the gesture of the second user, It becomes evaluation information.
제 1 단말(100-1)은 제 1 단말(100-1)에서 생성된 제 2 사용자에 대한 평가 정보를 영상 통화 서비스를 제공하는 서버(200)로 전송할 수 있다. 제 1 단말(100-1)은 제 2 사용자에 대한 평가 정보를 제 2 사용자의 계정에 대응시켜 영상 통화 서비스를 제공하는 서버(200)로 전송할 수 있다. 도 5에 도시된 바와 같이, 제 1 단말(100-1)은 제 1 영상 스트림에서 검출된 제 1 사용자의 제스처에 기초하여 생성된 이모션 정보 또는 아이콘 정보를 영상 통화 서비스를 제공하는 서버(200)로 전송할 수 있다. 이와 마찬 가지로, 제 2 단말(100-2)은 제 2 영상 스트림에서 검출된 제 2 사용자의 제스처에 기초하여 생성된 이모션 정보 또는 아이콘 정보를 영상 통화 서비스를 제공하는 서버(200)로 전송할 수 있다.The first terminal 100-1 may transmit the evaluation information about the second user generated by the first terminal 100-1 to the
한편, 제 1 단말(100-1)은 제 2 사용자에 대한 평가 정보를 제 2 단말(100-2)로 전송할 수 있다. 제 2 사용자에 대한 평가 정보가 제 1 영상 스트림에서 검출된 제 1 사용자의 제스처에 기초하여 제 1 단말(100-1)에서 생성되므로, 제 2 사용자에게 제 2 사용자가 어떤 평가를 받게 되는지 피드백을 줌으로써, 영상 통화를 하는 사용자들 간 긍정적인 대화 및 긍정적인 제스처를 유도하기 위함이다. 도 5를 참조하면, 제 1 사용자의 웃음 짓는 표정에 대응되는 '웃는 얼굴 아이콘'이라는 아이콘 정보가 제 1 단말(100-1)에서 제 2 단말(100-2)로 전송될 수 있다. 제 2 단말(100-2)로 전송된 아이콘 정보에 따라, '웃는 얼굴 아이콘'이 제 2 단말(100-2)에서 제 1 영상 스트림이 디스플레이되는 영역에 중첩하여 디스플레이될 수 있다. 이에 따라, 제 2 사용자는 영상 통화의 상대방인 제 1 사용자가 웃음 짓는 표정을 하여, 웃음 짓는 표정에 대응되는 이모션 정보 또는 아이콘 정보를 자신의 평가 정보로써 획득하였음을 알 수 있다. Meanwhile, the first terminal 100-1 may transmit the evaluation information about the second user to the second terminal 100-2. Since the evaluation information for the second user is generated in the first terminal 100-1 based on the gesture of the first user detected in the first video stream, feedback is given to the second user about what evaluation the second user will receive So as to induce positive dialogue and positive gestures among users who make video calls. Referring to FIG. 5, icon information 'smile icon' corresponding to the smile of the first user may be transmitted from the first terminal 100-1 to the second terminal 100-2. According to the icon information transmitted to the second terminal 100-2, a 'smile icon' may be displayed in the overlapping area of the second terminal 100-2 where the first video stream is displayed. Accordingly, the second user can recognize that the first user, who is the other party of the video call, makes a laughing smile and obtains the emotion information or icon information corresponding to the laughing expression as his own evaluation information.
반대로, 제 1 단말(100-1)은 제 2 단말(100-2)로부터 제 1 사용자에 대한 평가 정보를 수신하고, 수신된 제 1 사용자에 대한 평가 정보를 제 2 영상 스트림이 디스플레이되는 영역에 중첩하여 디스플레이할 수 있다. 제 1 사용자에 대한 평가 정보가 제 2 영상 스트림에서 검출된 제 2 사용자의 제스처에 기초하여 제 2 단말(100-2)에서 생성되므로, 제 1 사용자에게 제 1 사용자가 어떤 평가를 받게 되는지 피드백을 주는 것이다. 도 5를 참조하면, 제 2 사용자가 미소 짓는 경우, 제 2 단말(100-2)이 제 2 사용자를 촬영한 제 2 영상 스트림에서 제 2 사용자의 미소 짓는 표정을 검출하고, 미소 짓는 표정에 대응되는 '미소'라는 이모션 정보 또는 '스마일 아이콘'이라는 아이콘 정보를 미소 짓는 표정을 취한 제 2 사용자의 상대방인 제 1 사용자에 대한 평가 정보로써 생성할 수 있다. 제 2 사용자의 미소 짓는 표정에 대응되는 '스마일 아이콘'이라는 아이콘 정보는 제 2 단말(100-2)에서 제 1 단말(100-1)로 전송될 수 있다. 제 1 단말(100-1)로 전송된 아이콘 정보에 따라, '스마일 아이콘'이 제 1 단말(100-1)에서 제 2 영상 스트림이 디스플레이되는 영역에 중첩하여 디스플레이될 수 있다. 이에 따라, 제 1 사용자는 영상 통화의 상대방인 제 2 사용자가 미소 짓는 표정을 하여, 미소 짓는 표정에 대응되는 이모션 정보 또는 아이콘 정보를 자신의 평가 정보로써 획득하였음을 알 수 있다. On the other hand, the first terminal 100-1 receives the evaluation information on the first user from the second terminal 100-2, and transmits the evaluation information on the received first user to the area where the second video stream is displayed It is possible to superimpose them. Since the evaluation information for the first user is generated in the second terminal 100-2 based on the gesture of the second user detected in the second video stream, it is possible to give feedback to the first user on what evaluation the first user will receive Give. Referring to FIG. 5, when the second user is smiling, the second terminal 100-2 detects the smile expression of the second user in the second video stream captured by the second user, and responds to the smile expression As the evaluation information for the first user who is the other party of the second user who takes a smiling face of the 'smile' icon information or the 'smile icon' icon information. Icon information called a 'smile icon' corresponding to the smiling face of the second user may be transmitted from the second terminal 100-2 to the first terminal 100-1. According to the icon information transmitted to the first terminal 100-1, a 'smile icon' may be displayed in the area where the second video stream is displayed in the first terminal 100-1. Accordingly, the first user can recognize that the second user, who is the other party of the video call, smiles and acquires the emotion information or the icon information corresponding to the smiling face as his own evaluation information.
도 6은 일 실시예에 따라 제 2 사용자의 제스처에 기초하여 제 1 사용자에 대한 평가 정보를 생성하는 과정를 설명하기 위한 도면이다.6 is a diagram for explaining a process of generating evaluation information for a first user based on a gesture of a second user according to an embodiment.
제 1 단말(100-1)의 영상 통화 서비스의 이용 요청에 응답하여, 영상 통화의 상대방인 제 2 사용자의 제 2 단말(100-2)과 영상 통화가 이루어지는 과정은 도 5에서 설명한 내용과 동일하므로 생략한다.The process of making a video call with the second terminal 100-2 of the second user, which is the other party of the video call, in response to the use request of the video call service of the first terminal 100-1 is the same as that described in FIG. 5 Therefore, it is omitted.
도 6을 참조하면, 제 1 단말(100-1)과 제 2 단말(100-2)에서 상호 간 영상 통화 서비스가 실행되면, 제 1 단말(100-1)은 제 2 단말(100-2)로부터 수신된, 제 2 사용자를 촬영한 제 2 영상 스트림에서 제 2 사용자의 제스처를 검출할 수 있다. 제 1 단말(100-1)은 제 2 단말(100-2)에서 촬영한, 제 2 영상 스트림에서 제 2 사용자의 표정, 몸짓, 및 행동 중 적어도 하나의 제스처를 검출할 수 있다.Referring to FIG. 6, when the first terminal 100-1 and the second terminal 100-2 execute a video call service between the first terminal 100-1 and the second terminal 100-2, The gesture of the second user in the second video stream captured from the second user can be detected. The first terminal 100-1 may detect at least one gesture among the second user's facial expressions, gestures, and behaviors in the second video stream captured by the second terminal 100-2.
도 6을 참조하면, 제 1 단말(100-1)은 제 2 사용자가 미소 짓는 영상을 제 1 단말(100-1)의 화면에 디스플레이하고, 제 1 사용자가 웃음 짓는 영상을 제 2 사용자의 영상이 디스플레이되는 화면 영역의 좌측 하단 영역에 디스플레이하고 있다. 제 1 단말(100-1)은 제 2 사용자를 촬영한 제 2 영상 스트림에서 제 2 사용자의 미소 짓는 표정을 검출할 수 있다. 예를 들어, 제 2 사용자가 OK 사인 손짓을 하면, 제 1 단말(100-1)은 제 2 영상 스트림에서 OK 사인 손짓을 하는 제 2 사용자의 손짓을 검출할 수도 있다. 제 1 단말(100-1)은 제 2 영상 스트림에서 제 2 사용자의 얼굴, 손, 몸에 있는 특징점에 기초하여, 제 2 영상 스트림에서 제 2 사용자의 제스쳐를 검출할 수 있다. 제 1 단말(100-1)은 실시간 또는 소정의 인터벌 간격으로 제 2 사용자의 제스쳐를 연속적으로 검출할 수 있다.Referring to FIG. 6, the first terminal 100-1 displays a smile image of the second user on the screen of the first terminal 100-1, and displays an image laughed by the first user on the screen of the second user 100-1 Is displayed in the lower left area of the screen area to be displayed. The first terminal 100-1 can detect the smile expression of the second user in the second video stream captured by the second user. For example, if the second user makes an OK sign, the first terminal 100-1 may detect a hand gesture of the second user who performs an OK sign beacon in the second video stream. The first terminal 100-1 can detect the gesture of the second user in the second video stream based on the feature points in the face, hand, and body of the second user in the second video stream. The first terminal 100-1 can continuously detect the gesture of the second user in real time or at a predetermined interval interval.
제 1 단말(100-1)은 검출된 제 2 사용자의 제스처에 기초하여, 검출된 제스처를 취한 제 2 사용자의 상대방인 제 1 사용자에 대한 평가 정보를 생성할 수 있다. 제 1 단말(100-1)은 검출된 제스처에 대응되는 이모션 정보 또는 아이콘 정보를 제 1 사용자에 대한 평가 정보로써 생성할 수 있다.The first terminal 100-1 can generate the evaluation information for the first user who is the other party of the second user who has taken the detected gesture based on the detected gesture of the second user. The first terminal 100-1 may generate the emotion information or the icon information corresponding to the detected gesture as the evaluation information for the first user.
도 6을 참조하면, 제 1 단말(100-1)은 검출된 제 2 사용자의 미소 짓는 표정에 기초하여, 제 1 사용자에 대한 평가 정보를 생성할 수 있다. 제 1 단말(100-1)은 제 2 사용자의 미소 짓는 표정에 대응되는 '미소'라는 이모션 정보 또는 '스마일 아이콘'이라는 아이콘 정보를 미소 짓는 표정을 취한 제 2 사용자의 상대방인 제 1 사용자에 대한 평가 정보로써 생성할 수 있다. 제 2 사용자가 OK 사인 손짓을 하면, 제 1 단말(100-1)은 제 2 사용자의 OK 사인 손짓에 기초하여, 제 2 사용자의 엄지를 위로 올리는 손짓에 대응되는 '좋음(수용)'이라는 이모션 정보 또는 'OK 아이콘'이라는 아이콘 정보를 OK 사인 손짓을 취한 제 2 사용자의 상대방인 제 1 사용자에 대한 평가 정보로써 생성할 수도 있다. 제 2 사용자가 취한 제스처는 제 1 사용자의 태도나 행위에 대한 응답이므로, 제 2 영상 스트림에서 제 2 사용자의 제스처가 검출되면, 검출된 제스처를 유발한 제 2 사용자의 상대방인 제 1 사용자에 대한 평가 정보가 되는 것이다.Referring to FIG. 6, the first terminal 100-1 may generate evaluation information for the first user based on the smile expression of the detected second user. The first terminal 100-1 transmits the icon information of 'smile' or the icon information of 'smile icon' corresponding to the smile expression of the second user to the first user who is the opponent of the second user who takes a smiling face And can be generated as evaluation information. If the second user makes an OK sign, the first terminal 100-1 determines whether or not an emotion called " good (acceptable) " corresponding to a becky of raising the thumb of the second user on the basis of the hand gesture of the OK sign of the second user Information or 'OK icon' may be generated as the evaluation information for the first user, which is the opponent of the second user who has taken the OK sign beep. Since the gesture taken by the second user is a response to the attitude or behavior of the first user, if a gesture of the second user is detected in the second video stream, the gesture of the second user, which is the opposite of the second user, It becomes evaluation information.
제 1 단말(100-1)은 제 1 단말(100-1)에서 생성된 제 1 사용자에 대한 평가 정보를 영상 통화 서비스를 제공하는 서버(200)로 전송할 수 있다. 제 1 단말(100-1)은 제 1 사용자에 대한 평가 정보를 제 1 사용자의 계정에 대응시켜 영상 통화 서비스를 제공하는 서버(200)로 전송할 수 있다. 도 6에 도시된 바와 같이, 제 1 단말(100-1)은 제 2 영상 스트림에서 검출된 제 2 사용자의 제스처에 기초하여 생성된 이모션 정보 또는 아이콘 정보를 영상 통화 서비스를 제공하는 서버(200)로 전송할 수 있다. 이와 마찬 가지로, 제 2 단말(100-2)은 제 1 영상 스트림에서 검출된 제 1 사용자의 제스처에 기초하여 생성된 이모션 정보 또는 아이콘 정보를 영상 통화 서비스를 제공하는 서버(200)로 전송할 수 있다.The first terminal 100-1 may transmit the evaluation information of the first user generated by the first terminal 100-1 to the
제 1 단말(100-1)은 제 1 단말(100-1)에서 생성된 제 1 사용자에 대한 평가 정보를 제 2 영상 스트림이 디스플레이되는 영역에 중첩하여 디스플레이할 수 있다. 제 1 사용자에 대한 평가 정보가 제 2 영상 스트림에서 검출된 제 2 사용자의 제스처에 기초하여 제 1 단말(100-1)에서 생성되므로, 제 1 사용자에게 제 1 사용자가 어떤 평가를 받게 되는지 피드백을 줌으로써, 영상 통화를 하는 사용자들 간 긍정적인 대화 및 긍정적인 제스처를 유도하기 위함이다. 도 6을 참조하면, 제 2 사용자의 미소 짓는 표정에 대응되는 '스마일 아이콘'이라는 아이콘 정보가 제 1 단말(100-1)에서 생성됨에 따라, '스마일 아이콘'이 제 1 단말(100-1)에서 제 2 영상 스트림이 디스플레이되는 영역에 중첩하여 디스플레이될 수 있다. 또한, 제 1 단말(100-1)은 제 2 사용자의 미소 짓는 표정에 대응되는 '미소'라는 이모션 정보가 제 1 단말(100-1)에서 생성됨에 따라, "상대방이 미소 짓습니다"라는 소리를 출력할 수도 있다. 이에 따라, 제 1 사용자는 영상 통화의 상대방인 제 2 사용자가 미소 짓는 표정을 하여, 미소 짓는 표정에 대응되는 이모션 정보 또는 아이콘 정보를 자신의 평가 정보로써 획득하였음을 알 수 있다. The first terminal 100-1 can display the evaluation information on the first user generated by the first terminal 100-1 in an area where the second video stream is displayed. Since the evaluation information for the first user is generated in the first terminal 100-1 based on the gesture of the second user detected in the second video stream, feedback is given to the first user about what evaluation the first user will receive So as to induce positive dialogue and positive gestures among users who make video calls. 6, icon information 'smile icon' corresponding to a smiley face of a second user is generated in the first terminal 100-1, a 'smile icon' is displayed on the first terminal 100-1, The second video stream may be superimposed on the displayed area. Also, since the first terminal 100-1 generates the emotion information 'smile' corresponding to the smiling face of the second user at the first terminal 100-1, . Accordingly, the first user can recognize that the second user, who is the other party of the video call, smiles and acquires the emotion information or the icon information corresponding to the smiling face as his own evaluation information.
도 6을 참조하면, 제 1 사용자가 웃음 짓는 경우, 제 2 단말(100-2)이 제 1 사용자를 촬영한 제 1 영상 스트림에서 제 1 사용자의 웃음 짓는 표정을 검출하고, 웃음 짓는 표정에 대응되는 '웃음'이라는 이모션 정보 또는 '웃는 얼굴 아이콘'이라는 아이콘 정보를 웃음 짓는 표정을 취한 제 1 사용자의 상대방인 제 2 사용자에 대한 평가 정보로써 생성할 수 있다. 제 1 사용자의 웃음 짓는 표정에 대응되는 '웃는 얼굴 아이콘'이라는 아이콘 정보는 제 2 단말(100-2)에서 제 1 영상 스트림이 디스플레이되는 영역에 중첩하여 디스플레이될 수 있다. 또한, 제 2 단말(100-2)은 제 1 사용자의 웃음 짓는 표정에 대응되는 '웃음'라는 이모션 정보가 제 2 단말(100-2)에서 생성됨에 따라, "상대방이 웃습니다" 라는 소리를 출력할 수도 있다. 이에 따라, 제 2 사용자는 영상 통화의 상대방인 제 1 사용자가 웃음 짓는 표정을 하여, 웃음 짓는 표정에 대응되는 이모션 정보 또는 아이콘 정보를 자신의 평가 정보로써 획득하였음을 알 수 있다. Referring to FIG. 6, when the first user laughs, the second terminal 100-2 detects the laughing expression of the first user in the first video stream captured by the first user, and responds to the laughing expression As the evaluation information for the second user who is the opponent of the first user who takes a smiling face of the 'smile' icon information or the 'smile icon' icon information. The icon information of the 'smile icon' corresponding to the smile of the first user can be displayed in the overlapping area of the second terminal 100-2 where the first video stream is displayed. In addition, the second terminal 100-2 can generate a voice called " laughing " as the emotion information " laugh " corresponding to the laughing expression of the first user is generated in the second terminal 100-2 Output. Accordingly, the second user can recognize that the first user, who is the other party of the video call, makes a laughing smile and obtains the emotion information or icon information corresponding to the laughing expression as his own evaluation information.
도 7은 일 실시예에 따른 영상 통화 서비스를 제공하는 서버(200)의 스토리지(230)에 저장된 정보의 종류를 설명하기 위한 도면이다.7 is a view for explaining the types of information stored in the
앞서 도 5 및 도 6에서 살펴본 바와 같이, 영상 통화 서비스를 제공하는 서버(200)는 제 1 단말(100-1) 또는 제 2 단말(100-2)로부터 영상 통화 서비스를 이용하는 사용자에 대한 평가 정보를 수신할 수 있다. 영상 통화 서비스를 제공하는 서버(200)의 스토리지(230)는 이와 같은 사용자에 대한 평가 정보 뿐만 아니라, 영상 통화 서비스를 제공하는 서버(200)가 영상 통화 서비스를 제공하기 위해 필요한 다양한 정보들을 저장할 수 있다.5 and 6, the
도 7을 참조하면, 영상 통화 서비스를 제공하는 서버(200)의 스토리지(230)는 영상 통화 서비스를 이용하는 복수의 사용자들 각각의 사용자의 계정별로, 복수 종류의 누적 평가 정보와 각 누적 평가 정보에 대응되는 평판 지수(Reputation Quotient) 및 모든 종류의 평판 지수를 반영한 종합 평판 지수를 저장할 수 있다.Referring to FIG. 7, the
예를 들어, 누적 평가 정보는 종류에 따라, 누적 이모션 정보, 누적 아이콘 정보, 누적 선호도/기피도 정보 등이 있을 수 있다. 누적 이모션 정보는, 예를 들어, 영상 통화 서비스를 이용하는 단말(100)로부터 수신된 이모션 정보를 누적한 형태의 정보이고, 누적 아이콘 정보는, 예를 들어, 단말(100)로부터 수신된 아이콘 정보를 누적한 형태의 정보일 수 있다. 이모션 정보 또는 아이콘 정보는 제 1 사용자를 촬영한 제 1 영상 스트림 또는 제 2 사용자를 촬영한 제 2 영상 스트림에서 영상 통화 서비스를 이용하는 사용자의 상대방이 취한 제스처에 대응되는 사용자에 대한 평가 정보일 수 있다. 누적 선호도/기피도 정보는, 예를 들어, 단말(100)로부터 수신된 선호도/기피도 정보를 누적한 형태의 정보일 수 있다. 선호도/기피도 정보는 영상 통화 서비스를 이용하는 사용자가 영상 통화 중 또는 영상 통화 종료 후, 영상 통화의 상대방에 대한 호감 또는 비호감을 직접 입력한 것일 수 있다.For example, the cumulative evaluation information may include cumulative emotion information, cumulative icon information, cumulative preference / avoidance degree information, and the like, depending on the type. The accumulated emotion information is, for example, information in the form of accumulating the emotion information received from the terminal 100 using the video call service, and the accumulated icon information may include, for example, icon information received from the terminal 100 It can be accumulated information. The emotion information or icon information may be evaluation information on a user corresponding to a gesture taken by a user of a user who uses the video call service in the first video stream of the first user or the second video stream of the second user . The cumulative preference / avoidance degree information may be information in the form of cumulative preference / avoidance degree information received from the terminal 100, for example. The preference / avoidance degree information may be a user who uses the video call service directly inputs a liking or a desire for the other party of the video call during or after the video call.
평판 지수는 영상 통화 서비스를 이용하는 사용자가 다른 사용자들로부터 어떤 평가를 받는지 나타내는 척도일 수 있다. 종합 평판 지수는 각 누적 평가 정보에 대응되는 평판 지수 및 모든 종류의 평판 지수를 반영할 수 있다. 예를 들어, 이모션 평판 지수는 누적 이모션 정보에 기초하여 획득되고, 아이콘 평판 지수는 누적 아이콘 정보에 기초하여 획득되며, 선호도/기피도 지수는 선호도/기피도 정보에 기초하여 획득될 수 있다. 종합 평판 지수는 이모션 평판 지수, 아이콘 평판 지수, 선호도/기피도 평판 지수를 종합적으로 반영한 평판 지수일 수 있다. 종합 평판 지수는 평판 지수의 종류에 따라 가중치를 달리하여 계산할 수 있다.The reputation index may be a measure of how a user of a video call service receives an evaluation from other users. The aggregate reputation index may reflect the reputation index corresponding to each cumulative rating information and any reputation index. For example, the emotion reputation index is obtained based on cumulative emotion information, the icon reputation index is obtained based on the cumulative icon information, and the preference / avoidance index can be obtained based on the preference / avoidance degree information. The total reputation index may be a reputation index that reflects the emotion reputation index, the icon reputation index, and the likelihood / avoidance reputation index together. The total reputation index can be calculated with different weights depending on the type of reputation index.
신상 정보는 영상 통화 서비스를 이용하는 사용자의 국적, 이름, 성별, 관심사 등의 개인 정보를 포함할 수 있다.Personal information may include personal information such as nationality, name, sex, and interests of the user using the video call service.
사이버 머니 정보는 영상 통화 서비스를 이용하는 사용자가 유료로 제공되는 부가 서비스를 이용하기 위한 가상 머니이다. 예를 들어, 사용자가 원하는 조건의 상대방과 영상 통화 매칭을 하기 위해서는 사용자는 소정의 사이버 머니를 지불하여야 한다. The cyber money information is a virtual money for using an additional service provided by a user who uses a video call service for a fee. For example, in order to perform a video call matching with a user having a desired condition, the user must pay a predetermined cyber money.
영상 통화 서비스를 제공하는 서버(200)는 영상 통화 서비스를 이용하는 사용자에 대한 평가 정보를 수신하고, 수신된 평가 정보에 기초하여, 스토리지(230)에 저장된, 사용자의 계정에 대응하는 누적 평가 정보와 평판 지수를 업데이트할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 영상 통화 서비스를 이용하는 사용자의 상대방이 취한 제스처에 대응되는 이모션 정보 또는 아이콘 정보를 사용자에 대한 평가 정보로써 수신할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 이모션 정보의 종류 또는 아이콘 정보의 종류에 따라 가중치를 달리하여, 업데이트된 누적 평가 정보로부터 업데이트된 평판 지수를 획득할 수 있다.The
영상 통화 서비스를 제공하는 서버(200)는 업데이트된 평판 지수에 기초하여, 영상 통화 서비스를 관리할 수 있다. 예를 들어, 영상 통화 서비스를 제공하는 서버(200)는 업데이트된 평판 지수에 기초하여, 영상 통화 서비스를 이용하는 복수의 사용자들을 매칭시키는 영상 통화 매칭 부가 서비스를 제공함으로써, 영상 통화 서비스를 관리할 수 있다. 다른 예를 들어, 영상 통화 서비스를 제공하는 서버(200)는 업데이트된 평판 지수에 기초하여, 영상 통화 서비스를 이용하는 복수의 사용자들을 범주화(categorization)하고, 각 사용자가 속하는 각 범주에 대응되는 사용자 관리 부가 서비스를 제공함으로써, 영상 통화 서비스를 관리할 수 있다.The
한편, 영상 통화 서비스를 제공하는 서버(200)는 업데이트된 누적 평가 정보 또는 업데이트된 평판 지수를 통신 인터페이스(240)를 통해 단말(100)로 전송할 수 있다.Meanwhile, the
도 8은 일 실시예에 따라 단말로부터 수신된 평가 정보에 기초한 사용자의 평판 지수에 기초하여 영상 통화 서비스를 관리하는 과정을 설명하기 위한 도면이다.8 is a diagram for explaining a process of managing a video call service based on a reputation index of a user based on evaluation information received from a terminal according to an embodiment.
영상 통화 서비스를 제공하는 서버(200)는 영상 통화 서비스를 이용하는 사용자에 대한 평가 정보를 수신하고, 스토리지(230)에 저장된, 사용자의 계정에 대응하는 누적 평가 정보를 업데이트 할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 사용자의 계정에 대응되는 업데이트된 누적 평가 정보에 기초하여, 사용자의 계정에 대응되는 평판 지수를 업데이트 할 수 있다.The
도 8을 참조하면, 영상 통화 서비스를 제공하는 서버(200)는 제 1 사용자 평가 정보로써, '미소', '좋음(수용)'과 같은 이모션 정보와 '스마일 아이콘', 'OK 아이콘'과 같은 아이콘 정보를 수신할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 수신된 이모션 정보와 아이콘 정보를 누적 이모션 정보와 누적 아이콘 정보에 업데이트 할 수 있다. 이에 따라, 스토리지(230) 내의 제 1 사용자 계정에 대응되는 공간에는 누적 이모션 정보로써 '미소', '좋음(수용)','슬픔', '분노'가 저장되고, 누적 아이콘 정보로써 '스마일 아이콘', 'OK 아이콘', '앵그리 아이콘', '눈물 아이콘'이 저장될 수 있다. 한편, 누적 선호도/기피도 정보에는 기피나 비호감을 의미하는 '다운'이 2번 저장될 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 1 사용자 계정에 대응되는 업데이트된 누적 평가 정보에 기초하여, 평판 지수를 업데이트할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 1 사용자 계정에 대응되는 누적 이모션 정보인 '미소', '좋음(수용)','슬픔', '분노' 각각에 대해 가중치를 달리하여, 제 1 사용자 계정에 대응되는 이모션 평판 지수를 획득할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 1 사용자 계정에 대응되는 누적 아이콘 정보인 '스마일 아이콘', 'OK 아이콘', '앵그리 아이콘', '눈물 아이콘' 각각에 대해 가중치를 달리하여, 제 1 사용자 계정에 대응되는 아이콘 평판 지수를 획득할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 1 사용자 계정에 대응되는 누적 선호도/기피도 정보인 2번의 '다운'에 기초하여 제 1 사용자 계정에 대응되는 선호도/기피도 지수를 획득할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 1 사용자 계정에 대응되는 이모션 평판 지수, 아이콘 평판 지수, 선호도/기피도 지수를 모두 고려하여 제 1 사용자 계정에 대응되는 종합 평판 지수를 획득할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 1 사용자 계정에 대응되는 각 평판 지수의 종류에 따라 가중치를 달리하여 종합 평판 지수를 계산할 수 있다.Referring to FIG. 8, the
도 8을 참조하면, 영상 통화 서비스를 제공하는 서버(200)는 제 2 사용자 평가 정보로써, '웃음', '만족'과 같은 이모션 정보와 '웃는 얼굴 아이콘', '엄지척 아이콘'과 같은 아이콘 정보를 수신할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 수신된 이모션 정보와 아이콘 정보를 누적 이모션 정보와 누적 아이콘 정보에 업데이트 할 수 있다. 이에 따라, 스토리지(230) 내의 제 2 사용자 계정에 대응되는 공간에는 누적 이모션 정보로써 '웃음', '만족','졸림', '언짢음'이 저장되고, 누적 아이콘 정보로써 '웃는 얼굴 아이콘', '엄지척 아이콘', '하품 아이콘', '업세트 아이콘'이 저장될 수 있다. 한편, 누적 선호도/기피도 정보에는 선호나 호감을 의미하는 '업'이 2번 저장될 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 2 사용자 계정에 대응되는 업데이트된 누적 평가 정보에 기초하여, 평판 지수를 업데이트할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 2 사용자 계정에 대응되는 누적 이모션 정보인 '웃음', '만족','졸림', '언짢음' 각각에 대해 가중치를 달리하여, 제 2 사용자 계정에 대응되는 이모션 평판 지수를 획득할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 2 사용자 계정에 대응되는 누적 아이콘 정보인 '웃는 얼굴 아이콘', '엄지척 아이콘', '하품 아이콘', '업세트 아이콘' 각각에 대해 가중치를 달리하여, 제 2 사용자 계정에 대응되는 아이콘 평판 지수를 획득할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 2 사용자 계정에 대응되는 누적 선호도/기피도 정보인 2번의 '업'에 기초하여 제 2 사용자 계정에 대응되는 선호도/기피도 지수를 획득할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 2 사용자 계정에 대응되는 이모션 평판 지수, 아이콘 평판 지수, 선호도/기피도 지수를 모두 고려하여 제 2 사용자 계정에 대응되는 종합 평판 지수를 획득할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 제 2 사용자 계정에 대응되는 각 평판 지수의 종류에 따라 가중치를 달리하여 종합 평판 지수를 계산할 수 있다.Referring to FIG. 8, the
영상 통화 서비스를 제공하는 서버(200)는 이와 같이 업데이트된 평판 지수에 기초하여, 영상 통화 서비스를 관리할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 이모션 평판 지수, 아이콘 평판 지수, 선호도/기피도 지수, 및 종합 평판 지수 중 적어도 하나에 기초하여, 영상 통화 서비스를 관리할 수 있다.The
도 8을 참조하면, 영상 통화 서비스를 제공하는 서버(200)는 업데이트된 평판 지수에 기초하여, 영상 통화 서비스를 이용하는 복수의 사용자들을 매칭시키는 영상 통화 매칭 부가 서비스를 제공함으로써, 영상 통화 서비스를 관리할 수 있다. 예를 들어, 영상 통화 서비스를 제공하는 서버(200)는 영상 통화 서비스를 이용하는 복수의 사용자들 각각의 업데이트된 평판 지수에 기초하여, 평판 지수가 같은 범주 내에 있는 사람들끼리 영상 통화 매칭을 시키거나, 유료 사용자에게 평판 지수가 높은 평판 좋은 사용자와 영상 통화 매칭을 시키거나, 영상 통화 서비스 신규 가입자에게 평판 지수가 높은 평판 좋은 사용자와 영상 통화 매칭을 시키는 등의 영상 통화 매칭 부가 서비스를 제공할 수 있다.Referring to FIG. 8, a
또한, 영상 통화 서비스를 제공하는 서버(200)는 업데이트된 평판 지수에 기초하여, 영상 통화 서비스를 이용하는 복수의 사용자들을 범주화하고, 각 사용자가 속하는 각 범주에 대응되는 사용자 관리 부가 서비스를 제공함으로써, 영상 통화 서비스를 관리할 수 있다. 예를 들어, 영상 통화 서비스를 제공하는 서버(200)는 영상 통화 서비스를 이용하는 복수의 사용자들 각각의 업데이트된 평판 지수에 기초하여, 영상 통화 서비스를 이용하는 복수의 사용자들을 범주화하고, 각 범주 별로 다른 혜택을 제공하거나, 평판 지수가 낮은 범주의 사용자에게 블랙리스트에 오르지 않도록 미리 경고하거나, 평판 지수 임계치보다 평판 지수가 낮은 범주의 사용자에게 영상 통화 서비스의 사용을 일시적으로 또는 영구적으로 제한하는 등의 각 사용자가 속하는 각 범주에 대응되는 사용자 관리 부가 서비스를 제공할 수 있다.The
도 9는 일 실시예에 따라 영상 통화 서비스의 사용자의 제스처에 대응되는 평가 정보를 생성하여 영상 통화 서비스를 제공하는 방법을 설명하기 위한 흐름도이다. 9 is a flowchart illustrating a method of generating evaluation information corresponding to a gesture of a user of a video call service and providing a video call service according to an exemplary embodiment of the present invention.
블록 910에서, 제 1 단말(100-1)은 제 1 사용자의 제 1 단말(100-1)과 영상 통화의 상대방인 제 2 사용자의 제 2 단말(100-2) 간의 영상 통화 세션을 수립할 수 있다.In
블록 920에서, 제 1 단말(100-1)은 제 1 사용자를 촬영한 제 1 영상 스트림 또는 제 2 단말(100-2)로부터 수신된, 제 2 사용자를 촬영한 제 2 영상 스트림에서 제 1 사용자 또는 제 2 사용자의 제스처를 검출할 수 있다. In
제 1 단말(100-1)에서 제 1 사용자의 제스처를 검출하는 경우, 제 1 단말(100-1)은 제 1 단말(100-1)에서 촬영한, 제 1 영상 스트림에서 제 1 사용자의 표정, 몸짓, 및 행동 중 적어도 하나의 제스처를 검출할 수 있다. When the first terminal 100-1 detects the gesture of the first user, the first terminal 100-1 detects the gesture of the first user in the first video stream captured by the first terminal 100-1, , A gesture, and an action.
제 1 단말(100-1)에서 제 2 사용자의 제스처를 검출하는 경우, 제 1 단말(100-1)은 제 2 단말(100-2)로부터 수신된, 제 2 영상 스트림에서 제 2 사용자의 표정, 몸짓, 및 행동 중 적어도 하나의 제스처를 검출할 수 있다.In the case where the first terminal 100-1 detects the gesture of the second user, the first terminal 100-1 detects the gesture of the second user in the second video stream received from the second terminal 100-2, , A gesture, and an action.
블록 930에서, 제 1 단말(100-1)은 검출된 제스처에 기초하여, 검출된 제스처를 취한 사용자의 상대방에 대한 평가 정보를 생성할 수 있다. 제 1 단말(100-1)은 검출된 제스처에 대응되는 이모션 정보 또는 아이콘 정보를 상대방에 대한 평가 정보로써 생성할 수 있다.At
제 1 단말(100-1)에서 제 1 사용자의 제스처를 검출하는 경우, 제 1 단말(100-1)은 검출된 제스처에 기초하여, 제 2 사용자에 대한 평가 정보를 생성할 수 있다. When detecting the gesture of the first user at the first terminal 100-1, the first terminal 100-1 may generate the evaluation information for the second user based on the detected gesture.
제 1 단말(100-1)에서 제 2 사용자의 제스처를 검출하는 경우, 제 1 단말(100-1)은 검출된 제스처에 기초하여, 제 1 사용자에 대한 평가 정보를 생성할 수 있다.When detecting the gesture of the second user at the first terminal 100-1, the first terminal 100-1 may generate the evaluation information for the first user based on the detected gesture.
블록 940에서, 제 1 단말(100-1)은 생성된 평가 정보를 영상 통화 서비스를 제공하는 서버(200)로 전송할 수 있다.In
제 1 단말(100-1)에서 제 1 사용자의 제스처를 검출하는 경우, 제 1 단말(100-1)은 생성된 제 2 사용자에 대한 평가 정보를 제 2 사용자의 계정에 대응시켜 서버(200)로 전송할 수 있다.When the first terminal 100-1 detects the gesture of the first user, the first terminal 100-1 transmits the evaluation information about the generated second user to the
제 1 단말(100-1)에서 제 2 사용자의 제스처를 검출하는 경우, 제 1 단말(100-1)은 생성된 제 1 사용자에 대한 평가 정보를 제 1 사용자의 계정에 대응시켜 서버(200)로 전송할 수 있다.When the first terminal 100-1 detects the gesture of the second user, the first terminal 100-1 transmits the evaluation information on the generated first user to the
제 1 단말(100-1)에서 제 1 사용자의 제스처를 검출하는 경우, 제 1 단말(100-1)은 생성된 제 2 사용자에 대한 평가 정보를 제 2 단말(100-2)로 전송할 수 있다. 또한, 제 1 단말(100-1)은 제 2 단말(100-2)로부터 제 1 사용자에 대한 평가 정보를 수신하고, 수신된 제 1 사용자에 대한 평가 정보를 제 2 영상 스트림이 디스플레이되는 영역에 중첩하여 디스플레이할 수 있다.When the first terminal 100-1 detects the gesture of the first user, the first terminal 100-1 may transmit the evaluation information on the generated second user to the second terminal 100-2 . Also, the first terminal 100-1 receives the evaluation information on the first user from the second terminal 100-2, and transmits the evaluation information on the received first user to the area where the second video stream is displayed It is possible to superimpose them.
제 1 단말(100-1)에서 제 2 사용자의 제스처를 검출하는 경우, 제 1 단말(100-1)은 생성된 제 1 사용자에 대한 평가 정보를 제 2 영상 스트림이 디스플레이되는 영역에 중첩하여 디스플레이할 수 있다.When the first terminal 100-1 detects the gesture of the second user, the first terminal 100-1 superimposes the evaluation information on the generated first user on the area where the second video stream is displayed, can do.
도 10은 일 실시예에 따라 사용자의 평판 지수에 기초하여 영상 통화 서비스를 제공하는 방법을 설명하기 위한 흐름도이다.FIG. 10 is a flowchart illustrating a method of providing a video call service based on a reputation index of a user according to an embodiment.
블록 1010에서, 영상 통화 서비스를 제공하는 서버(200)는 영상 통화를 지원하는 단말(100)로부터 영상 통화 서비스를 이용하는 사용자에 대한 평가 정보를 수신할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 영상 통화 서비스를 이용하는 사용자의 상대방이 취한 제스처에 대응되는 이모션 정보 또는 아이콘 정보를 사용자에 대한 평가 정보로써 수신할 수 있다.In
블록 1020에서, 영상 통화 서비스를 제공하는 서버(200)는 수신된 평가 정보에 기초하여, 스토리지(230)에 저장된, 사용자의 계정에 대응하는 누적 평가 정보와 평판 지수를 업데이트할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 이모션 정보의 종류 또는 아이콘 정보의 종류에 따라 가중치를 달리하여, 업데이트된 누적 평가 정보로부터 업데이트된 평판 지수를 획득할 수 있다.In
블록 1030에서, 영상 통화 서비스를 제공하는 서버(200)는 업데이트된 평판 지수에 기초하여, 영상 통화 서비스를 관리할 수 있다. 예를 들어, 영상 통화 서비스를 제공하는 서버(200)는 업데이트된 평판 지수에 기초하여, 영상 통화 서비스를 이용하는 복수의 사용자들을 매칭시키는 영상 통화 매칭 부가 서비스를 제공함으로써, 영상 통화 서비스를 관리할 수 있다. 다른 예를 들어, 영상 통화 서비스를 제공하는 서버(200)는 업데이트된 평판 지수에 기초하여, 영상 통화 서비스를 이용하는 복수의 사용자들을 범주화하고, 각 사용자가 속하는 각 범주에 대응되는 사용자 관리 부가 서비스를 제공함으로써, 영상 통화 서비스를 관리할 수 있다.In
영상 통화 서비스를 제공하는 서버(200)는 업데이트된 누적 평가 정보 또는 업데이트된 평판 지수를 통신 인터페이스(240)를 통해 영상 통화 서비스를 이용하는 단말로 전송할 수 있다. The
상술한 영상 통화 서비스의 사용자의 제스처에 대응되는 평가 정보를 생성하여 영상 통화 서비스를 제공하는 방법에 관한 실시예들은 영상 통화 서비스를 제공하는 단말(100)에서, 영상 통화 서비스의 사용자의 제스처에 대응되는 평가 정보를 생성하여 영상 통화 서비스를 제공하는 방법을 수행하도록 하는 컴퓨터 판독가능 저장매체에 저장된 애플리케이션 형태로 제공될 수 있다. 다시 말해서, 단말(100)로 하여금 상술한 영상 통화 서비스를 제공하는 방법의 각 단계를 실행시키기 위한 컴퓨터 판독가능 저장매체에 저장된 애플리케이션 또는 컴퓨터 프로그램 형태로 제공될 수 있다.Embodiments related to the method of generating the evaluation information corresponding to the gesture of the user of the video call service and providing the video call service described above may be applied to the gesture of the user of the video call service in the terminal 100 providing the video call service And providing the video call service by generating evaluation information indicating that the video call service is provided. In other words, the terminal 100 may be provided in the form of an application or a computer program stored in a computer-readable storage medium for executing each step of the method for providing the video call service described above.
사용자의 평판 지수에 기초하여 영상 통화 서비스를 제공하는 방법에 관한 실시예들은 서버(200)에서, 사용자의 평판 지수에 기초하여 영상 통화 서비스를 제공하는 방법을 수행할 수 있도록 컴퓨터 판독가능 저장매체에 저장된 컴퓨터 프로그램 형태로 제공될 수 있다. 다시 말해서, 서버(200)로 하여금 상술한 영상 통화 서비스를 제공하는 방법의 각 단계를 실행시키기 위한 컴퓨터 판독가능 저장매체에 저장된 컴퓨터 프로그램 또는 애플리케이션 형태로 제공될 수 있다.Embodiments of a method for providing a video call service based on a user's reputation index may be implemented in a computer readable storage medium such as a
상술한 실시예들은 컴퓨터 또는 프로세서에 의하여 실행 가능한 명령어 또는 데이터를 저장하는 컴퓨터 판독 가능 저장매체의 형태로 구현될 수 있다. 상기 명령어 및 데이터 중 적어도 하나는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 소정의 프로그램 모듈을 생성하여 소정의 동작을 수행할 수 있다. 이와 같은 컴퓨터 판독 가능 저장매체는 read-only memory (ROM), random-access memory (RAM), flash memory, CD-ROMs, CD-Rs, CD+Rs, CD-RWs, CD+RWs, DVD-ROMs, DVD-Rs, DVD+Rs, DVD-RWs, DVD+RWs, DVD-RAMs, BD-ROMs, BD-Rs, BD-R LTHs, BD-REs, 마그네틱 테이프, 플로피 디스크, 광자기 데이터 저장 장치, 광학 데이터 저장 장치, 하드 디스크, 솔리드-스테이트 디스크(SSD), 그리고 명령어 또는 소프트웨어, 관련 데이터, 데이터 파일, 및 데이터 구조들을 저장할 수 있고, 프로세서나 컴퓨터가 명령어를 실행할 수 있도록 프로세서나 컴퓨터에 명령어 또는 소프트웨어, 관련 데이터, 데이터 파일, 및 데이터 구조들을 제공할 수 있는 어떠한 장치라도 될 수 있다. The above-described embodiments may be embodied in the form of a computer-readable storage medium for storing instructions or data executable by a computer or a processor. At least one of the command and data may be stored in the form of program code, and when executed by the processor, a predetermined program module may be generated to perform a predetermined operation. Such computer-readable storage mediums may include read only memory (ROM), random access memory (RAM), flash memory, CD-ROMs, CD-Rs, CD + Rs, CD- , DVD-Rs, DVD + Rs, DVD-RWs, DVD + RWs, DVD-RAMs, BD-ROMs, BD-Rs, BD-R LTHs, BD- REs, magnetic tape, floppy disk, magneto- Data storage devices, optical data storage devices, hard disks, solid-state disks (SSDs), and instructions or software, associated data, data files, and data structures, Software, related data, data files, and data structures.
이제까지 실시예들을 중심으로 살펴보았다. 개시된 실시예들이 속하는 기술 분야에서 통상의 지식을 가진 자는 개시된 실시예들이 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 발명의 범위는 전술한 실시예들의 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 발명의 범위에 포함된 것으로 해석되어야 할 것이다.So far, the embodiments have been mainly described. It will be understood by those skilled in the art that the disclosed embodiments may be embodied in various other forms without departing from the essential characteristics thereof. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the invention being indicated by the appended claims rather than by the foregoing description of the embodiments, and all differences within the scope of equivalents thereof should be construed as being included in the scope of the invention.
Claims (15)
제 1 사용자의 상기 제 1 단말과 영상 통화의 상대방인 제 2 사용자의 제 2 단말 간의 영상 통화 세션을 수립하는 단계;
상기 제 1 사용자를 촬영한 제 1 영상 스트림 또는 상기 제 2 단말로부터 수신된, 상기 제 2 사용자를 촬영한 제 2 영상 스트림에서, 상기 제 1 사용자 또는 상기 제 2 사용자의 제스처를 검출하는 단계;
상기 검출된 제스처에 기초하여, 상기 검출된 제스처를 취한 사용자의 상대방에 대한 평가 정보를 생성하는 단계; 및
상기 생성된 평가 정보를 영상 통화 서비스를 제공하는 서버로 전송하는 단계;
를 포함하는 영상 통화 서비스를 제공하는 방법을 수행하도록 하는 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션.In the first terminal,
Establishing a video call session between the first terminal of the first user and the second terminal of the second user, which is the other party of the video call;
Detecting a gesture of the first user or the second user in a first video stream of the first user or a second video stream of the second user, the second video stream being received from the second terminal;
Generating evaluation information on a counterpart of a user who has taken the detected gesture based on the detected gesture; And
Transmitting the generated evaluation information to a server providing a video call service;
The method comprising the steps of: receiving a video call service request from a user;
상기 상대방에 대한 평가 정보를 생성하는 단계는,
상기 검출된 제스처에 대응되는 이모션 정보 또는 아이콘 정보를 상기 상대방에 대한 평가 정보로써 생성하는, 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션.The method according to claim 1,
Wherein the step of generating evaluation information for the other party comprises:
And generates emotion information or icon information corresponding to the detected gesture as evaluation information for the other party.
상기 제 1 사용자의 제스처를 검출하는 경우,
상기 제스처를 검출하는 단계는,
상기 제 1 단말에서 촬영한, 상기 제 1 영상 스트림에서 상기 제 1 사용자의 표정, 몸짓, 및 행동 중 적어도 하나의 제스처를 검출하고,
상기 상대방에 대한 평가 정보를 생성하는 단계는,
상기 검출된 제스처에 기초하여, 상기 제 2 사용자에 대한 평가 정보를 생성하며,
상기 서버로 전송하는 단계는,
상기 생성된 제 2 사용자에 대한 평가 정보를 상기 제 2 사용자의 계정에 대응시켜 상기 서버로 전송하는, 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션.The method according to claim 1,
When detecting the gesture of the first user,
Wherein the detecting the gesture comprises:
Detecting at least one of a facial expression, a gesture, and an action of the first user in the first video stream captured by the first terminal,
Wherein the step of generating evaluation information for the other party comprises:
Generates evaluation information for the second user based on the detected gesture,
Wherein the step of transmitting to the server comprises:
And transmits the evaluation information for the generated second user to the server in correspondence with the account of the second user.
상기 생성된 제 2 사용자에 대한 평가 정보를 상기 제 2 단말로 전송하는 단계를 포함하는, 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션.The method of claim 3,
And transmitting the evaluation information for the generated second user to the second terminal.
상기 제 2 단말로부터 제 1 사용자에 대한 평가 정보를 수신하는 단계; 및
상기 수신된 제 1 사용자에 대한 평가 정보를 상기 제 2 영상 스트림이 디스플레이되는 영역에 중첩하여 디스플레이하는 단계;
를 포함하는, 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션.The method of claim 3,
Receiving evaluation information for a first user from the second terminal; And
Superimposing the evaluation information on the received first user in an area where the second video stream is displayed;
≪ / RTI > stored on a computer readable storage medium.
상기 제 2 사용자의 제스처를 검출하는 경우,
상기 제스처를 검출하는 단계는,
상기 제 2 단말로부터 수신된, 상기 제 2 영상 스트림에서 상기 제 2 사용자의 표정, 몸짓, 및 행동 중 적어도 하나의 제스처를 검출하고,
상기 상대방에 대한 평가 정보를 생성하는 단계는,
상기 검출된 제스처에 기초하여, 상기 제 1 사용자에 대한 평가 정보를 생성하며,
상기 서버로 전송하는 단계는,
상기 생성된 제 1 사용자에 대한 평가 정보를 상기 제 1 사용자의 계정에 대응시켜 상기 서버로 전송하는, 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션.The method according to claim 1,
When detecting the gesture of the second user,
Wherein the detecting the gesture comprises:
Detecting at least one gesture of the second user's facial expression, gesture, and behavior in the second video stream received from the second terminal,
Wherein the step of generating evaluation information for the other party comprises:
Generates evaluation information for the first user based on the detected gesture,
Wherein the step of transmitting to the server comprises:
And transmits the evaluation information for the generated first user to the server in correspondence with the account of the first user.
상기 생성된 제 1 사용자에 대한 평가 정보를 상기 제 2 영상 스트림이 디스플레이되는 영역에 중첩하여 디스플레이하는 단계를 포함하는, 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션.The method according to claim 6,
And displaying the generated evaluation information for the first user overlaid on an area in which the second video stream is displayed.
스토리지;
프로세서; 및
상기 프로세서에 의해 실행 가능한 명령어들을 저장하는 메모리;를 포함하고,
상기 프로세서는, 상기 명령어들을 실행함으로써, 상기 단말로부터 영상 통화 서비스를 이용하는 사용자에 대한 평가 정보를 수신하고, 상기 수신된 평가 정보에 기초하여, 상기 스토리지에 저장된, 상기 사용자의 계정에 대응하는 누적 평가 정보와 평판 지수를 업데이트하며, 상기 업데이트된 평판 지수에 기초하여, 상기 영상 통화 서비스를 관리하는, 영상 통화 서비스를 제공하는 서버.A communication interface for performing communication with a terminal supporting a video call;
storage;
A processor; And
And a memory for storing instructions executable by the processor,
Wherein the processor is configured to receive the evaluation information for the user using the video call service from the terminal by executing the instructions and to perform a cumulative evaluation corresponding to the account of the user stored in the storage based on the received evaluation information Updates the information and reputation index, and manages the video call service based on the updated reputation index.
상기 프로세서는,
상기 영상 통화 서비스를 이용하는 상기 사용자의 상대방이 취한 제스처에 대응되는 이모션 정보 또는 아이콘 정보를 상기 사용자에 대한 평가 정보로써 수신하는, 영상 통화 서비스를 제공하는 서버.9. The method of claim 8,
The processor comprising:
And receives the emotion information or the icon information corresponding to the gesture taken by the user of the user who uses the video call service as the evaluation information for the user.
상기 프로세서는,
상기 이모션 정보의 종류 또는 상기 아이콘 정보의 종류에 따라 가중치를 달리하여, 상기 업데이트된 누적 평가 정보로부터 상기 업데이트된 평판 지수를 획득하는, 영상 통화 서비스를 제공하는 서버.10. The method of claim 9,
The processor comprising:
And obtains the updated reputation index from the updated cumulative evaluation information with a different weight according to the kind of the emotion information or the type of the icon information.
상기 프로세서는,
상기 업데이트된 평판 지수에 기초하여, 상기 영상 통화 서비스를 이용하는 복수의 사용자들을 매칭시키는 영상 통화 매칭 부가 서비스를 제공함으로써, 상기 영상 통화 서비스를 관리하는, 영상 통화 서비스를 제공하는 서버.9. The method of claim 8,
The processor comprising:
Wherein the video call service is managed by providing a video call matching supplementary service that matches a plurality of users using the video call service based on the updated reputation index.
상기 프로세서는,
상기 업데이트된 평판 지수에 기초하여, 상기 영상 통화 서비스를 이용하는 복수의 사용자들을 범주화하고, 각 사용자가 속하는 각 범주에 대응되는 사용자 관리 부가 서비스를 제공함으로써, 상기 영상 통화 서비스를 관리하는, 영상 통화 서비스를 제공하는 서버.9. The method of claim 8,
The processor comprising:
Categorizing a plurality of users using the video call service based on the updated reputation index and providing a user management service corresponding to each category to which each user belongs, Server.
상기 프로세서는,
상기 업데이트된 누적 평가 정보 또는 상기 업데이트된 평판 지수를 상기 통신 인터페이스를 통해 상기 단말로 전송하는, 영상 통화 서비스를 제공하는 서버. 9. The method of claim 8,
The processor comprising:
And transmits the updated cumulative evaluation information or the updated reputation index to the terminal via the communication interface.
상기 스토리지는,
상기 영상 통화 서비스를 이용하는 복수의 사용자들 각각의 사용자의 계정 별로, 복수 종류의 누적 평가 정보와 각 누적 평가 정보에 대응되는 평판 지수 및 모든 종류의 평판 지수를 반영한 종합 평판 지수를 저장하는, 영상 통화 서비스를 제공하는 서버.9. The method of claim 8,
The storage device
Storing a plurality of kinds of cumulative evaluation information, a reputation index corresponding to each cumulative evaluation information, and a comprehensive reputation index reflecting all types of reputation indices, for each user of each of a plurality of users using the video call service, The server that provides the service.
상기 제 1 사용자를 촬영한 제 1 영상 스트림 또는 상기 제 2 단말로부터 수신된, 상기 제 2 사용자를 촬영한 제 2 영상 스트림에서 상기 제 1 사용자 또는 상기 제 2 사용자의 제스처를 검출하는 명령어들;
상기 검출된 제스처에 기초하여, 상기 검출된 제스처를 취한 사용자의 상대방에 대한 평가 정보를 생성하는 명령어들; 및
상기 생성된 평가 정보를 영상 통화 서비스를 제공하는 서버로 전송하는 명령어들;
을 포함하는 프로세서에 의해 실행 가능한 명령어들이 저장된 비일시적 컴퓨터 판독 가능 저장매체.Instructions for establishing a video call session between a first terminal of a first user and a second terminal of a second user that is a party of a video call;
Instructions for detecting a gesture of the first user or the second user in a first video stream captured by the first user or a second video stream captured from the second terminal and captured by the second user;
Instructions for generating rating information for a party of a user who has taken the detected gesture based on the detected gesture; And
And transmitting the generated evaluation information to a server providing a video call service;
Readable storage medium having stored thereon instructions executable by a processor comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/198,161 US10554698B2 (en) | 2017-12-28 | 2018-11-21 | Terminal and server providing video call service |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170148293 | 2017-11-08 | ||
KR20170148293 | 2017-11-08 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190052584A true KR20190052584A (en) | 2019-05-16 |
KR102120871B1 KR102120871B1 (en) | 2020-06-09 |
Family
ID=66672230
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170182782A KR102120871B1 (en) | 2017-11-08 | 2017-12-28 | Terminal and server providing a video call service |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102120871B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112308591A (en) * | 2019-08-02 | 2021-02-02 | 中国移动通信有限公司研究院 | User evaluation method, device, equipment and computer readable storage medium |
KR102249501B1 (en) * | 2019-11-25 | 2021-05-11 | 라인플러스 주식회사 | Method, system, and computer program for providing ruputation badge for video chat |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110012491A (en) * | 2009-07-30 | 2011-02-09 | 에스케이텔레콤 주식회사 | System, management server, terminal and method for transmitting of message using image data and avatar |
KR20130022434A (en) * | 2011-08-22 | 2013-03-07 | (주)아이디피쉬 | Apparatus and method for servicing emotional contents on telecommunication devices, apparatus and method for recognizing emotion thereof, apparatus and method for generating and matching the emotional contents using the same |
KR20150097337A (en) * | 2014-02-18 | 2015-08-26 | 에스케이텔레콤 주식회사 | Method and Apparatus for Providing Counterpart's Reputation |
-
2017
- 2017-12-28 KR KR1020170182782A patent/KR102120871B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110012491A (en) * | 2009-07-30 | 2011-02-09 | 에스케이텔레콤 주식회사 | System, management server, terminal and method for transmitting of message using image data and avatar |
KR20130022434A (en) * | 2011-08-22 | 2013-03-07 | (주)아이디피쉬 | Apparatus and method for servicing emotional contents on telecommunication devices, apparatus and method for recognizing emotion thereof, apparatus and method for generating and matching the emotional contents using the same |
KR20150097337A (en) * | 2014-02-18 | 2015-08-26 | 에스케이텔레콤 주식회사 | Method and Apparatus for Providing Counterpart's Reputation |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112308591A (en) * | 2019-08-02 | 2021-02-02 | 中国移动通信有限公司研究院 | User evaluation method, device, equipment and computer readable storage medium |
KR102249501B1 (en) * | 2019-11-25 | 2021-05-11 | 라인플러스 주식회사 | Method, system, and computer program for providing ruputation badge for video chat |
KR20210064120A (en) * | 2019-11-25 | 2021-06-02 | 라인플러스 주식회사 | Method, system, and computer program for providing ruputation badge for video chat |
US11567638B2 (en) | 2019-11-25 | 2023-01-31 | LINE Plus Corporation | Method, system, and non-transitory computer-readable record medium for providing reputation badge for video chat |
Also Published As
Publication number | Publication date |
---|---|
KR102120871B1 (en) | 2020-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102044241B1 (en) | Terminal providing a video call service | |
US11140356B2 (en) | Terminal and server for providing video call service | |
TWI681298B (en) | System and method for touch-based communications | |
US20180329209A1 (en) | Methods and systems of smart eyeglasses | |
KR102034838B1 (en) | Terminal and server providing a video call service | |
JP2018505462A (en) | Avatar selection mechanism | |
US20190228031A1 (en) | Graphical image retrieval based on emotional state of a user of a computing device | |
WO2020207413A1 (en) | Content pushing method, apparatus, and device | |
KR101978299B1 (en) | Apparatus for service contents in contents service system | |
US9977510B1 (en) | Gesture-driven introduction system | |
KR102120871B1 (en) | Terminal and server providing a video call service | |
KR20110012491A (en) | System, management server, terminal and method for transmitting of message using image data and avatar | |
US10554698B2 (en) | Terminal and server providing video call service | |
KR102034839B1 (en) | Terminal and server providing a video call service | |
US10721437B2 (en) | Terminal and server for providing video call service | |
JP2019159533A (en) | Facial expression improvement support program, facial expression improvement support method, and facial expression improvement support apparatus | |
KR20120136966A (en) | Method for express emotion through visual object, system and terminal thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |