KR102044242B1 - 영상 통화 서비스를 제공하는 단말 및 서버 - Google Patents

영상 통화 서비스를 제공하는 단말 및 서버 Download PDF

Info

Publication number
KR102044242B1
KR102044242B1 KR1020170181512A KR20170181512A KR102044242B1 KR 102044242 B1 KR102044242 B1 KR 102044242B1 KR 1020170181512 A KR1020170181512 A KR 1020170181512A KR 20170181512 A KR20170181512 A KR 20170181512A KR 102044242 B1 KR102044242 B1 KR 102044242B1
Authority
KR
South Korea
Prior art keywords
terminal
video call
user
size
exposed area
Prior art date
Application number
KR1020170181512A
Other languages
English (en)
Other versions
KR20190079365A (ko
Inventor
안상일
최혁
Original Assignee
주식회사 하이퍼커넥트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 하이퍼커넥트 filed Critical 주식회사 하이퍼커넥트
Priority to KR1020170181512A priority Critical patent/KR102044242B1/ko
Priority to EP18213173.0A priority patent/EP3506628A1/en
Priority to US16/223,600 priority patent/US10574941B2/en
Priority to JP2018238541A priority patent/JP6742394B2/ja
Publication of KR20190079365A publication Critical patent/KR20190079365A/ko
Application granted granted Critical
Publication of KR102044242B1 publication Critical patent/KR102044242B1/ko
Priority to US16/737,355 priority patent/US11140356B2/en
Priority to JP2020127599A priority patent/JP6938734B2/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72522
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
    • H04M1/72583
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/34Microprocessors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/36Memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/38Displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/50Telephonic communication in combination with video communication

Abstract

본 발명의 일 개시는 제 1 단말에서, 제 1 단말과 제 2 단말 간의 영상 통화 세션을 수립하는 단계, 제 1 단말에 표시되는 제 2 사용자의 영상에서 노출영역을 제외한 나머지 영역을 변조하여 표시하는 단계, 영상 통화 세션이 유지되는 중 소정의 이벤트를 검출하는 단계 및 소정의 이벤트에 기초하여 노출영역의 크기를 제어하는 단계를 포함하는 영상 통화 서비스를 제공하는 방법을 수행하도록 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션을 제공할 수 있다.

Description

영상 통화 서비스를 제공하는 단말 및 서버{Terminal and server providing a video call service}
상대방의 영상을 점진적으로 노출하는 영상 통화 서비스를 제공하는 단말 및 서버에 관한 것이다.
영상 통화 서비스는 통화 중 상대방의 음성을 출력함과 동시에 상대방의 영상을 화면에 표시하는 것으로서, 원격지에 있는 상대방의 모습을 보면서 통화할 수 있으며, 단순히 음성만으로 통화를 하는 것에 비해서 통화자 간에 서로의 감정상태를 쉽게 교환할 수 있다는 장점이 있다.
최근 고속정보통신이 현실화되고, 영상 통화가 가능한 단말 장치의 보급이 확대되면서, 영상 통화 서비스가 주목받고 있으며, 더불어, 영상 통화의 이용률이 날로 증가하고 있는 추세이다.
그러나 영상 통화의 편리성에도 불구하고 향상된 화질로 사용자 및 주변환경을 상대방에게 비 자의적으로 직접 노출시킴으로써, 사용자의 초상권 및 사생활이 침해 당할 수 있게 하는 문제점을 발생시킬 수 있다.
일 개시에 의하여, 영상 통화 서비스의 진행 중 발생하는 이벤트에 따라 사용자 및 주변환경을 노출시키는 영상 통화 서비스를 제공하는 방법, 서버 및 단말을 제공할 수 있다.
일 개시에 의하여, 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션을 제공하며, 애플리케이션은 제 1 단말에서, 제 1 단말과 제 2 단말 간의 영상 통화 세션을 수립하는 단계, 제 1 단말에 표시되는 제 2 사용자의 영상에서 노출영역을 제외한 나머지 영역을 변조하여 표시하는 단계, 영상 통화 세션이 유지되는 중 소정의 이벤트를 검출하는 단계 및 소정의 이벤트에 기초하여 노출영역의 크기를 제어하는 단계를 포함할 수 있다.
일 개시에 의하여 영상 통화 서비스를 제공하는 서버를 제공하며, 서버는 영상 통화 서비스를 제공하는 단말과 통신을 수행하는 통신 인터페이스, 스토리지, 프로세서, 및 프로세서에 의해 실행 가능한 명령어들을 저장하는 메모리를 포함하고, 프로세서는, 명령어들을 실행함으로써, 제 1 단말과 제 2 단말 간의 영상 통화 세션을 수립하고, 제 1 단말에 표시되는 제 2 사용자 영상에서 노출영역을 제외한 나머지 영역을 변조하여 표시하고, 영상 통화 세션이 유지되는 중 소정의 이벤트를 검출하고, 소정의 이벤트에 기초하여 노출영역의 크기를 제어할 수 있다.
일 개시에 의하여, 프로세서에 의해 실행 가능한 명령어들이 저장된 비일시적 컴퓨터 판독 가능 저장매체를 제공하며, 저장매체는 제 1 단말과 제 2 단말 간의 영상 통화 세션을 수립하는 명령어들, 제 1 단말의 영상 통화 화면에 표시되는 제 2 사용자 영상에서 노출영역을 제외한 나머지 영역을 변조하여 표시하는 명령어들, 영상 통화 세션이 유지되는 중 소정의 이벤트를 검출하는 명령어들, 소정의 이벤트에 기초하여 노출영역의 크기를 제어하는 명령어들을 포함할 수 있다.
일 개시에 의하여, 영상 통화 서비스를 수행하는 사용자 단말을 제공하며, 사용자 단말은 사용자 영상을 획득하는 카메라, 서버 및 다른 사용자 단말과 통신하는 통신 인터페이스, 프로세서 및 프로세서에 의해 실행 가능한 명령어들을 제공하는 메모리를 제공하며, 프로세서는 명령어들을 실행함으로써, 다른 사용자 단말과의 영상 통화 세션을 수립하고, 사용자 단말의 영상 통화 화면에 표시되는 다른 사용자의 영상에서 노출영역을 제외한 나머지 영역을 변조하여 표시하고, 영상 통화 세션이 유지되는 중 소정의 이벤트를 검출하고, 소정의 이벤트에 기초하여 노출영역의 크기를 제어할 수 있다.
도 1은 영상 통화 서비스가 제공되는 환경을 설명하기 위한 도면이다.
도 2는 일 개시에 의한 노출영역을 통해 영상 통화 서비스를 제공하는 모습을 설명하기 위한 도면이다,
도 3은 일 개시에 의한 소정의 시간 경과 후에 노출영역의 크기를 제어하는 모습을 설명하기 위한 도면이다.
도 4는 일 개시에 의한, 사용자의 노출영역의 크기 제어 요청에 의해 노출영역의 사이즈가 증가하는 모습을 설명하기 위한 도면이다.
도 5는 일 개시에 의한 노출영역의 크기 증가를 요청하는 사용자 입력에 따른 영상 통화 화면을 설명하기 위한 도면이다.
도 6은 일 개시에 의하여 단말에서의 제스처 검출에 의하여 노출영역의 크기를 제어하는 내용을 설명하기 위한 도면이다.
도 7(a) 내지 도 7(c)는 일 개시에 의하여 시간의 흐름에 따라 노출영역을 제외한 비노출영역의 속성을 변경하는 모습을 설명하기 위한 도면이다.
도 8은 일 개시에 의한 사용자의 선택에 따른 비노출영역의 속성을 변경한 모습을 설명하기 위한 도면이다.
도 9는 일 실시예에 따른 단말의 구성을 나타낸 블록도이다.
도 10은 일 실시예에 따른 영상 통화 서비스를 제공하는 서버의 구성을 나타낸 블록도이다.
도 11은 다른 실시예에 따른 영상 통화 서비스를 제공하는 서버가 복수 개의 분산 서버들로 구현된 모습을 설명하기 위한 도면이다.
도 12는 일 개시에 의한 노출영역을 통해 영상 통화 서비스를 제공하는 방법을 설명하기 위한 흐름도이다.
이하, 첨부된 도면을 참조하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 이하에서 개시되는 실시 예에 한정되지 않는다. 또한 도면에서 본 발명을 명확하게 개시하기 위해서 본 발명과 관계없는 부분은 생략하였으며, 도면에서 동일하거나 유사한 부호들은 동일하거나 유사한 구성요소들을 나타낸다.
본 발명의 목적 및 효과는 하기의 설명에 의해서 자연스럽게 이해되거나 보다 분명해질 수 있으며, 하기의 기재만으로 본 발명의 목적 및 효과가 제한되는 것은 아니다.
이하 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 상세하게 설명하면 다음과 같다.
도 1은 영상 통화 서비스가 제공되는 환경을 설명하기 위한 도면이다.
영상 통화 서비스는 복수의 사용자들이 각자의 단말을 이용하여 자신의 영상을 상대방에게 전송하고 상대방의 영상을 수신함으로써 의사를 주고받을 수 있는 서비스를 의미한다. 영상 통화 서비스를 이용하는 사용자들은 각자의 단말을 통해, 영상과 음성을 주고받을 수 있으며, 채팅 기능을 통해 텍스트를 주고 받을 수도 있다. 영상 통화 서비스를 이용하려는 사용자는 상대방을 직접 지정하거나, 영상 통화 서비스를 제공하는 서버에서 랜덤 또는 소정의 방식에 따라 상대방을 지정해줌으로써, 상대방과 영상 통화 서비스를 이용할 수 있다.
도 1을 참조하면, 제 1 단말(100-1) 및 제 2 단말(100-2)이 통신망(400)을 통해 영상 통화 서비스를 제공하는 서버(200)와 연결되어 있다. 서버(200)는 복수의 사용자들이 각자의 단말(100-1, 100-2)을 이용하여 영상 통화 서비스를 이용할 수 있도록 도와주는 각종 프로그램 또는 애플리케이션과 데이터를 저장할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 근거리 통신 및 원격지 통신을 모두 수행할 수 있다. 영상 통화 서비스를 제공하는 서버(200)는 통신망(400)을 통해 복수의 단말(100-1, 100-2)들과 연결될 수 있다 복수의 단말(100-1, 100-2)은 영상 통화 서비스를 제공하는 서버(200)와의 연결에 이용될 수 있는 다양한 종류의 단말이 될 수 있다. 예를 들어, 복수의 단말(100-1, 100-2)은 영상 통화 서비스를 제공하는 서버(200)와 통신을 수행할 수 있는 장치로서, 스마트 왓치와 같은 웨어러블 장치, 스마트 폰, 태블릿 PC, 랩톱 컴퓨터와 같은 모바일 장치, 데스크톱 컴퓨터와 같은 스테이셔너리 장치 등이 될 수 있다. 또한, 복수의 단말(100-1, 100-2)은 영상 통화 서비스를 통해 연결되는 사용자들 간 영상 통화가 이루어질 수 있도록, 영상을 촬영하고 재생할 수 있는, 영상 통화를 지원하는 영상 통화 장치일 수 있다.
일 개시에 의하여, "노출영역"은 영상 통화 세션이 수립되어 단말에 영상 통화 화면이 표시되는 경우, 사용자가 단말을 통해 영상을 시청할 수 있는 영역이다. 예를 들어, 노출영역은 단말의 화면상에 표시되는 사용자를 촬영한 영상 스트림의 일부 영역을 의미할 수 있다. 일 개시에 의하여, 노출영역의 크기가 증가하는 경우, 단말을 통해 볼 수 있는 사용자의 신체 범위가 증가할 수 있다. 즉, 제 2 사용자는 제 2 단말의 화면 상의 제 1 노출영역을 통해서만 제 1 사용자의 영상을 볼 수 있다. 또한, 제 1 사용자는 제 1 단말의 화면 상의 제 2 노출영역을 통해서만 제 2 사용자의 영상을 볼 수 있다.
일 개시에 의하여, "비노출영역"은 단말에 표시된 영상 통화 화면 중 노출영역을 제외한 영상 영역이다. 예를 들어, 단말의 화면상에 표시되는 사용자영상 중 비노출영역은 모자이크, 음영조절, 배경삽입 등 사용자의 영상을 가리기 위한 수단으로 표시될 수 있다. 즉, 사용자는 비노출영역에 해당하는 영상에서 상대방의 모습 또는 주변환경을 볼 수 없다. 일 개시에 의하여, 노출영역과 비노출영역의 크기를 합한 것은 상대방의 영상의 크기와 같을 수 있다.
일 개시에 의하여, "핀치(pinch)"는 사용자가 두 손가락을 화면 위에 터치한 상태에서 서로 다른 방향으로 움직이는 동작을 나타낸다. 오브젝트 또는 페이지의 확대(Pinch Open) 또는 축소(Pinch Close)를 위한 제스처이며, 두 손가락의 거리에 따라 확대 값이나 축소 값이 결정된다.
도 2는 일 개시에 의한 노출영역을 통해 영상 통화 서비스를 제공하는 모습을 설명하기 위한 도면이다,
일 개시에 의하여, 제 1 단말(100-1)에서는 카메라를 통해 획득한 제 1 사용자(21)의 영상 스트림 및 제 2 단말(100-2)로부터 수신한 제 2 사용자(31)의 영상 스트림을 표시할 수 있다. 일 개시에 의하여, 제 1 사용자(21)는 제 2 노출영역(201)을 통해 제 2 사용자(31)의 영상 스트림의 일부만을 볼 수 있다. 예를 들어, 제 1 사용자(21)는 제 2 노출영역(201)에 위치한 제 2 사용자(31)의 두 눈을 볼 수 있다. 즉, 제 2 노출영역(201)은 제 2 사용자(31)의 영상의 일부 영역을 가리고 일부 영역만이 보여지도록 하는 역할을 한다.
마찬가지로, 제 2 단말(100-2)의 제 2 사용자(31)는 제 2 사용자의 영상 스트림 및 제 1 단말(100-1)로부터 수신한 제 1 사용자(21)의 영상을 표시할 수 있다. 이때, 제 1 사용자(21)의 영상은 제 1 노출영역(202)을 통해서만 볼 수 있다.
따라서, 제 1 사용자(21) 및 제 2사용자(22)는 영상 통화 연결 시 원치않는 얼굴 및 주변 환경의 노출을 방지할 수 있다.
일 개시에 의하여, 제 1 단말(100-1)은 제 2 단말(100-2)을 통해 출력되는 영상 통화 서비스의 음성 신호의 속성을 제어할 수 있다. 일 개시에 의하여 제 1 단말(100-1)에서 제 1 사용자(21)의 음성의 변조, 음소거 처리, 음량의 조절 등을 제어함으로써 제 2 단말(100-2)에서 출력되는 제 1 사용자(21)의 음성을 제어할 수 있다.
일 개시에 의하여, 제 1 단말(100-1)은 제 1 단말(100-1)을 통해 입력되는 음성 신호를 제어할 수 있다. 예를 들어, 제 1 단말(100-1)은 제 1 단말(100-1)에서 수신한 음성 신호의 음량 크기, 음성변조 등의 음성 속성을 제어한 후 제 2 단말(100-2)로 전송할 수 있다.
도 3은 일 개시에 의한 소정의 시간 경과 후에 노출영역의 크기를 제어하는 모습을 설명하기 위한 도면이다.
일 개시에 의하여, 제 1 단말(100-1)은 제 2 단말(100-2)간의 영상 통화 세션의 유지 시간이 증가함에 따라, 제 2 노출영역(301)의 사이즈를 확대할 수 있다. 일 개시에 의하여, 제 1 사용자(21)는 확장된 제 2 노출영역(303)을 통해 더 넓은 범위의 제 2 사용자(31)의 영상을 볼 수 있다.
마찬가지로, 제 2 단말(100-2)은 제 1 단말(100-1)과의 영상 통화 세션이 수립된 후, 소정의 시간이 경과하면 제 1 노출영역(302)의 크기가 확대될 수 있다. 일 개시에 의하여, 제 2 사용자(31)는 확장된 제 1 노출영역(304)을 통해 제 1 사용자(21)영상을 볼 수 있다.
일 개시에 의하여, 제 1 단말(100-1) 및 제 2 단말(100-2)은 영상 통화 세션 수립 후 소정의 시간이 경과함에 따라, 동시에, 같은 넓이로 노출영역의 사이즈가 변경될 수 있다. 일 개시에 의하여, 소정의 시간이 경과하면 변경되는 노출영역의 사이즈는 사용자 또는 서버의 관리자에 의하여 미리 설정될 수 있다.
일 개시에 의하여, 제 1 단말(100-1) 및 제 2 단말(100-2)의 노출영역은 영상통화 세션의 유지시간이 길어질수록, 순차적으로 넓어질 수 있다.
도 4는 일 개시에 의한, 사용자의 노출영역의 크기 제어 요청에 의해 노출영역의 사이즈가 증가하는 모습을 설명하기 위한 도면이다.
일 개시에 의하여, 제 1 단말(100-1)은 제 1 사용자(21)로부터 노출영역 확대 조절 아이콘(403)을 선택하는 입력을 수신할 수 있다. 일 개시에 의하여, 노출영역 확대 조절 아이콘(403)의 입력에 따라, 제 1 단말(100-1)은 제 2 노출영역(401)의 사이즈를 확대하여 변경된 제 2 노출영역(405)을 통해 제 2 사용자(31)의 영상을 출력할 수 있다.
일 개시에 의하여, 제 1 단말(100-1)은 제 1 사용자(21)에 의해 노출영역 확대 조절 아이콘(403)을 선택하는 입력을 수신하면, 제 2 단말(100-2)로 제 1 노출영역(402)의 확대 신호를 전송할 수 있다. 제 2 단말(100-2)에서는 제 1 노출영역(402)의 확대 신호를 수신함에 따라, 사이즈가 변경된 제 1 노출영역(406)을 표시할 수 있다. 제 2 사용자(31)는 사이즈가 변경된 제 1 노출영역(406)을 통해 제 1 사용자(21)의 영상을 볼 수 있다.
일 개시에 의하여, 제 1 사용자(21)의 노출영역 확대 조절 아이콘(403)을 선택하는 입력에 따라, 서버(200)에서 제 1 단말(100-1)의 제 2 노출영역(301) 및 제 2 단말(100-2)의 제 1 노출영역(302)의 사이즈를 동시에 조절할 수 있다.
일 개시에 의하여 노출영역 확대 조절 아이콘(403)은 버튼, 아이콘, 화살표 등으로 표시될 수 있다. 일 개시에 의하여, 노출영역 확대 조절 아이콘(403)은 영상 통화 화면 중 임의의 영역에 배치될 수 있다.
일 개시에 의하여 제 1 사용자(21)가 노출영역 축소 조절 아이콘(404)을 선택하는 경우, 제 1 단말(100-1) 및 제 2 단말(100-2)의 노출영역의 사이즈가 축소될 수 있다.
도 5는 일 개시에 의한 노출영역의 크기 증가를 요청하는 사용자 입력에 따른 영상 통화 화면을 설명하기 위한 도면이다.
일 개시에 의하여, 노출영역은 사용자의 확대 요청 및 수락에 따라 변경될 수 있다. 쌍방 중 어느 한 명이 노출영역의 확대를 원하지 않는 경우, 노출영역이 임의로 확대됨을 방지하기 위함이다.
일 개시에 의하여 제 1 단말(100-1)은 제 2 사용자(31)의 영상의 제 2 노출영역(501)을 확장할 것을 제 2 단말(100-2)로 요청할 수 있다. 일 개시에 의하여, 제 1 사용자(21)가 노출영역 확대 조절 아이콘(502)을 선택함에 따라, 제 1 단말(100-1)은 제 2 단말(100-2)로 제 2 노출영역의 확대를 요청할 수 있다. 다른 개시에 의하여 제 1 사용자(21)가 노출영역 축소 조절 아이콘(503)을 선택함에 따라, 제 1 단말(100-1)은 제 2 단말(100-2)로 제 2 노출영역의 축소를 요청할 수 있다.
일 개시에 의하여 제 2 단말(100-2)은 제 1 단말(100-1)로부터 수신한 노출영역 확대 요청에 따라 요청 메시지(504)를 표시할 수 있다. 일 개시에 의하여, 요청메시지(504)는 제 1 사용자(21)가 제 2 노출영역의 확장을 원한다는 내용을 포함할 수 있다.
일 개시에 의하여 제 2 사용자(31)가 OK 버튼(505)을 선택하는 경우, 제 2 단말(100-2)은 제 1 단말(100-1)로 노출영역의 확장 신호를 보낼 수 있다. 일 개시에 의하여 제 1 단말(100-1)은 확장 신호를 수신함에 따라, 변경된 제 2 노출영역(507)을 표시할 수 있다. 또한, 제 2 단말(100-2)에서도 확장된 노출영역이 표시될 수 있다.
일 개시에 따라, 제 2 사용자(31)가 NO 버튼(506)을 선택하는 경우, 제 1 단말(100-1) 및 제 2 단말(100-2)의 노출영역의 크기는 확대되지 않는다.
도 6은 일 개시에 의하여 단말에서의 제스처 검출에 의하여 노출영역의 크기를 제어하는 내용을 설명하기 위한 도면이다.
일 개시에 의하여, 제 1 단말(100-1) 및 제 2 단말(100-2)에 표시된 영상의 제스처로부터 노출영역의 사이즈를 확대할지 여부를 결정할 수 있다. 일 개시에 의하여, 제 1 단말(100-1)에서 제 1 사용자(21)를 촬영한 영상 및 제 2 단말(100-2)로부터 수신한 제 2 사용자(31)를 촬영한 영상으로부터 검출한 제 1 사용자(21)의 제스처 및 제 2 사용자(31)의 제스처 중 적어도 하나에 대응되는 이모션 정보가 긍정적 반응으로 분류된 정보에 해당되는 경우, 제 1 단말(100-1)은 제 2 노출영역(601)의 사이즈를 확대할 수 있다. 또한, 상기와 같은 방식에 의해 제 2 단말(100-2)에서도 제 1 노출영역(602)의 사이즈를 확대할 수 있다.
일 개시에 의하여 제스처는 사용자가 얼굴, 손, 몸 등을 이용하여 전달하는 비언어적 의사소통을 의미하며, 표정, 손짓, 몸짓 등이 될 수 있다. 사용자는 제스처를 취함으로써, 자신의 의사를 상대방에게 전달하거나, 상대방에게 어떤 반응을 유도해 낼 수 있다. 표정은 사용자가 얼굴을 통해 눈, 눈썹, 코, 입, 이마, 볼 등을 움직임으로써 자신의 생각을 나타내는 것이다. 예를 들어, 표정은 눈을 깜빡이기, 눈을 크게 만들거나 감기, 입꼬리 올리기, 입을 벌리기, 입술을 깨물기, 이마 찌푸리기 등이 될 수 있다. 손짓은 사용자가 손을 소정의 형상이나 액션을 취하게 함으로써, 몸짓은 사용자가 몸을 소정의 형상이나 액션을 취하게 함으로써 자신의 생각을 나타내는 것이다. 손짓은 OK 사인, 엄지를 위로 올리거나 아래로 내리기, 'V'자 만들기, 손을 앞뒤로 흔들기, 손을 좌우로 흔들기 등이 될 수 있다. 몸짓은 몸을 비틀기, 어깨를 들썩이기, 팔짱기기 등이 될 수 있다.
한편, 제스처는 사용자가 의식적으로 또는 무의식적으로 얼굴, 손, 몸 등을 이용하여 자신의 의사를 나타낸 것이므로, 제스처 각각은 대응되는 이모션 정보가 있을 수 있다. 이모션 정보는 제스처에 따른 사용자의 감정이거나 감정을 불러일으키는 기분, 분위기, 표현 자체를 의미할 수 있다. 예를 들어, 이모션 정보는 기쁨, 행복, 분노, 즐거움, 괴로움, 슬픔, 우울함, 졸림, 따분함, 궁금함, 언짢음, 만족, 미소, 웃음, 윙크, 울음, 긍정, 부정, 좋음(수용), 싫음(거절) 등이 될 수 있다.
또한, 제스처 각각은 대응되는 아이콘 정보가 있을 수 있다. 아이콘 정보는 제스처와 닮은꼴로 그 제스처를 직관적으로 묘사하거나, 제스처에 대응되는 이모션 정보를 나타내는 그림이나 기호일 수 있다. 예를 들어, 아이콘 정보는 사용자의 표정, 손짓, 몸짓 각각에 대응되는 형상이나 모양의 그림을 포함하거나, 이모션 정보를 표현하는 기호 또는 문자를 포함할 수 있다.
일 개시에 의하여 제 1 단말(100-1)은 제 1 사용자(21) 및 제 2 사용자(31)의 제스처를 검출하고, 그에 대응하는 이모션 정보가 긍정적 정보에 해당하는지 판단할 수 있다.
일 개시에 의하여, 제스처에 대응하는 이모션 정보가 긍정적 정보인지 부정적 정보인지는 인공지능 학습 모델에 의하여 획득될 수 있다. 일 개시에 의하여, 인공지능 학습 모델은 사용자와 다른 사용자간의 커뮤니케이션 정보에 기초하여 제스처와 이모션 정보 사이의 관계성을 학습한 결과에 기초하여 획득된 인공지능 학습 모델을 이용하여 사용자의 제스처에 대응하는 이모션 정보가 긍정적인지 여부를 판단할 수 있다.
일 개시에 의하여, 제 1 단말(100-1)은 제스처에 대응하는 이모션 정보가 긍정적인지 여부를 판단하기 위하여 심층 신경망(Deep Neural Network) 기술에 따른 학습 모델을 활용할 수 있다.
일 개시에 의하여, 제 1 단말(100-1)에서 제 1 사용자(21) 및 제 2 사용자(31)의 눈, 코, 입 등의 얼굴 특징점을 이용하여 제 1 사용자(21) 및 제 2 사용자(31)가 웃고 있다고 판단하는 경우, "웃음"이라는 제스처에 대응하는 이모션 정보가 "긍정"이라고 판단할 수 있다. 이에 따라, 제 1 단말(100-1)에서는 제 1 사용자(21) 및 제 2 사용자(31)의 커뮤니케이션 상태가 긍정적이라는 판단에 따라, 제 2 노출영역(601)의 사이즈를 확장 할 수 있다. 또한, 제 2 단말(100-2)에서도 제 1 노출영역(602)의 사이즈를 확장할 수 있다.
일 개시에 의하여 제 1 단말(100-1)에서는 제 2 단말(100-2)과 송수신한 커뮤니케이션 정보를 검출하고, 커뮤니케이션 정보에 대응하는 이모션 정보를 결정할 수 있다. 일 개시에 의하여, 커뮤니케이션 정보는 제스처 정보, 이모티콘 정보, 텍스트 정보, 및 음성 정보 중 적어도 하나를 포함할 수 있다.
일 개시에 의하여 제 1 단말(100-1)에서는 제 2 단말(100-2)로 전송한 텍스트 정보 및 이모티콘 정보를 포함하는 제 1 커뮤니케이션 정보(604)와 제 2 단말(100-2)로부터 수신한 텍스트 정보 및 이모티콘 정보를 포함하는 제 2 커뮤니케이션 정보(605)가 "좋음", "즐거움"에 대응되는 경우, 이모션 정보를 "긍정"이라고 판단할 수 있다. 이에 따라, 제 1 단말(100-1)에서는 제 1 사용자(21) 및 제 2 사용자(31)의 커뮤니케이션 상태가 긍정적이라는 판단에 따라, 제 2 노출영역(601)의 사이즈를 확장 할 수 있다. 또한, 같은 판단에 따라 제 2 단말(100-2)에서도 제 1 노출영역(602)의 사이즈를 확장할 수 있다.
일 개시에 의하여, 제 1 단말(100-1)에서는 제 2 사용자(31)를 "친구 추가"하는 액션 및 제 2 단말(100-2)이 제 1 사용자(21)를 "친구 추가"하는 액션이 검출되는 경우, 제 1 사용자(21) 및 제 2 사용자(31)의 커뮤니케이션 상태가 긍정적이라고 판단할 수 있다. 일 개시에 의하여, 제 1 단말(100-1)은 제 2 노출영역(601)의 사이즈를 확장할 수 있다.
다른 개시에 의하여, 제 1 단말(100-1)에서 제 1 사용자(21) 및 제 2 사용자(31)의 커뮤니케이션 상태가 부정적이라고 판단한 경우, 제 2 노출영역(601)의 사이즈를 축소할 수 있다. 또한, 같은 판단에 따라 제 2 단말(100-2)에서도 제 1 노출영역(602)의 사이즈를 축소할 수 있다.
일 개시에 의하여, 제 1 단말(100-1)에서는 제 1 사용자(21)의 영상 및 제 2 사용자(31)의 영상으로부터 검출한 제스처 정보, 이모티콘 정보 및 텍스트 정보를 서버(200)로 전송할 수 있다. 또한, 제 2 단말(100-2)에서도 제 2 사용자(31)의 영상 및 제 1 사용자(21)의 영상으로부터 검출한 음성 정보, 제스처 정보, 이모티콘 정보 및 텍스트 정보를 서버(200)로 전송할 수 있다.
일 개시에 의하여 서버(200)는 제 1 단말(100-1) 및 제 2 단말(100-2)로부터 수신한 음성 정보, 제스처 정보, 이모티콘 정보 및 텍스트 정보에 기초하여 제 1 단말(100-1) 및 제 2 단말(100-2)의 노출영역의 크기를 제어하는 신호를 전송할 수 있다. 일 개시에 의하여, 서버(200)는 제 1 사용자(21) 및 제 2 사용자(31)의 커뮤니케이션 상태가 긍정적이라고 판단한 경우, 노출영역의 크기를 확대하는 제어신호를 전송할 수 있다. 한편, 서버(200)는 제 1 사용자(21) 및 제 2 사용자(31)의 커뮤니케이션 상태가 부정적이라고 판단한 경우, 노출영역의 크기를 축소하는 제어신호를 전송할 수 있다.
도 7(a) 내지 도 7(c)는 일 개시에 의하여 시간의 흐름에 따라 노출영역을 제외한 비노출영역의 속성을 변경하는 모습을 설명하기 위한 도면이다.
일 개시에 의하여, 제 1 단말(100-1)에서는 제 2 단말(100-2)과의 영상 통화 유지 시간이 경과함에 따라, 노출영역(701)을 제외한 나머지 영역, 즉, 비노출영역(702)의 속성을 변경할 수 있다.
일 개시에 의하여, 도 7(a) 내지 도 7(c)는 시간의 흐름에 따라 정렬된 것이다. 일 개시에 의하여, 영상 통화 유지 시간이 경과함에 따라, 제 1 단말(100-1)에서는 더 넓은 범위의 제 2 사용자(31)의 영상을 표시할 수 있다.
일 개시에 따라, 도 7(a)와 같이 제 2 비노출영역(702)은 영상통화가 수립될 당시, 제 2 노출영역(701)을 제외하고, 제 2 사용자(31)의 신체부위 및 주변 환경을 볼 수 없도록 변조되어 표시될 수 있다. 예를 들어, 제 2 비노출영역(702)은 모자이크, 변조, 배경 삽입 등으로 처리되어 제 2 사용자(31)의 다른 부분의 영상을 제 1 사용자(21)가 볼 수 없도록 하는 기능을 한다. 일 개시에 의하여, 제 2 노출영역(701)과 제 2 비노출영역(702)의 크기의 합은 제 2 사용자(31)의 영상의 크기와 동일하다. 즉, 제 2 비노출영역(702)은 제 2 노출영역(701)을 제외한 제 2 사용자(31)의 영상을 가리는 용도이다.
일 개시에 의하여, 도 7(b)와 같이 제 1 단말(100-1)에서는 소정의 영상통화 유지 시간이 경과한 후, 제 2 비노출영역(702)의 변조를 줄일 수 있다. 예를 들어, 제 2 비노출영역(702)의 채도, 농도, 밝기 등을 조절하여, 제 2 사용자(31)의 영상이 도 7(a)보다 잘 보이게 할 수 있다.
일 개시에 의하여, 도 7(c)와 같이 제 1 단말(100-1)에서는 소정의 영상 통화 유지 시간이 더 경과한 후, 제 2 비노출영역(702)의 변조를 없앨 수 있다. 일 개시에 의하여, 미리 정해놓은 영상 통화 유지 시간이 경과한 후, 제 1 단말(100-1)에서는 제 2 노출영역(701) 및 제 2 비노출영역(702)이 사라지고, 온전한 제 2 사용자(31)영상이 표시될 수 있다. 이때, 제 2 노출영역(701)을 나타내는 도형이 테두리는 점선으로 표시되거나, 점차 사라질 수 있다.
일 개시에 의하여, 도 7에서는 시간의 흐름에 따른 비노출영역의 변화에 대하여 설명하였지만, 다른 실시예에 따른 이벤트 검출에도 적용될 수 있다.
도 8은 일 개시에 의한 사용자의 선택에 따른 비노출영역의 속성을 변경한 모습을 설명하기 위한 도면이다.
일 개시에 의하여 제 1 단말(100-1)의 제 1 사용자(21)는 제 2 단말(100-2)에서의 제 1 사용자(21)의 영상에 표시된 제 1 비노출영역(804)의 속성을 변경시킬 수 있다. 예를 들어, 제 1 비노출영역(804)에 배경이미지를 삽입하거나, 배경색을 변경하거나, 임의의 사진이 삽입되도록 할 수 있다.
일 개시에 의하여 제 1 사용자(21)는 제 1 단말(100-1)의 제어 메뉴를 통해 제 2 단말의 제 1 비노출영역(804)의 속성을 변경할 수 있다.
또한, 제 2 단말(100-2)에서도 같은 동작에 의하여, 제 1 단말(100-1)에 표시된 제 2 사용자(31)의 영상에 표시된 제 2 비노출영역(803)의 속성을 변경시킬 수 있다.
도 9는 일 실시예에 따른 단말의 구성을 나타낸 블록도이다.
일 개시에 의하여, 도 9는 제 1 단말(100-1)을 도시하고 있지만, 일 개시에 따라, 제 2 단말(100-2)도 도 9의 구성을 포함할 수 있다.
도 9를 참고하면, 제 1 단말(100-1)은 메모리(110), 프로세서(120), 사용자 인터페이스(130), 통신 인터페이스(140), 음성 및 화상 입력부(150)를 포함할 수 있다. 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 도 11에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 알 수 있다.
메모리(110)는 소프트웨어 또는 프로그램을 저장할 수 있다. 예를 들어, 메모리(110)는 애플리케이션, 애플리케이션 프로그래밍 인터페이스(API) 등과 같은 프로그램 및 다양한 종류의 데이터를 저장할 수 있다. 메모리(110)는 프로세서(120)에 의해 실행 가능한 명령어들을 저장할 수 있다.
프로세서(120)는 메모리(110)에 저장된 명령어들을 실행할 수 있다. 프로세서(120)는 메모리(110)에 저장된 각종 프로그램, 컨텐츠, 데이터를 이용하거나, 또는 새로운 프로그램, 컨텐츠, 데이터를 메모리(110)에 저장할 수도 있다.
프로세서(120)는 메모리(110)에 액세스하여, 메모리(110)에 저장된 O/S를 이용하여 부팅을 수행할 수 있다. 프로세서(120)는 메모리(110)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행할 수 있다. 예를 들어, 프로세서(120)는 메모리(110)에 저장된 각종 프로그램, 컨텐츠, 데이터를 이용하여, 디스플레이(136)에 소정의 화면을 표시할 수 있다. 프로세서(120)는 디스플레이(136)의 일 영역에 대한 사용자 조작이 이루어지면, 사용자의 조작에 대응되는 제어 동작을 수행할 수 있다.
프로세서(120)는 그래픽 처리에 특화된 GPU(Graphic Processing Unit)를 포함할 수 있다. GPU는 제 1 단말(100-1)의 부팅이 완료되면, 디스플레이(136)의 영역에 사용자 인터페이스 화면을 디스플레이한다. 구체적으로는, GPU는 컨텐츠, 아이콘, 메뉴 등과 같은 다양한 객체를 포함하는 영상 통화 레이아웃이 표시된 화면을 생성할 수 있다. GPU는 화면의 영상 통화 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산할 수 있다. 그리고, GPU는 연산된 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성할 수 있다. GPU에서 생성된 화면은 디스플레이(136)로 제공되어, 디스플레이(136)의 각 영역에 각각 표시될 수 있다.
한편, 프로세서(120)는 비디오 프로세서와 오디오 프로세서를 포함할 수 있다. 프로세서(120)는 비디오 프로세서와 오디오 프로세서를 제어하여, 통신 인터페이스(140)를 통해 수신된 영상 스트림 또는, 메모리(110)에 저장된 영상 스트림에 포함된 비디오 데이터 또는 오디오 데이터를 처리할 수 있다.
사용자 인터페이스(130)는 입력부(131)와 출력부(135)를 포함할 수 있다.
입력부(131)는 사용자로부터 다양한 명령어를 입력받을 수 있다. 입력부(131)는 키패드(132), 터치 패널(133) 및 펜 인식 패널(134) 중 적어도 하나를 포함할 수 있다.
키패드(132)는 제 1 단말(100-1)의 본체 외관의 전면부나 측면부, 배면부 등의 다양한 영역에 형성된 기계적 버튼, 휠 등과 같은 다양한 유형의 키를 포함할 수 있다.
터치 패널(133)은 사용자의 터치 입력을 감지하고, 감지된 터치 신호에 해당하는 터치 이벤트 값을 출력할 수 있다. 터치 패널(133)이 표시 패널과 결합하여 터치 스크린을 구성한 경우, 터치 스크린은 정전식이나, 감압식, 압전식 등과 같은 다양한 유형의 터치 센서로 구현될 수 있다.
펜 인식 패널(134)은 사용자의 터치용 펜(예컨대, 스타일러스 펜(stylus pen))의 운용에 따른 펜의 근접 입력 또는 터치 입력을 감지하고 감지된 펜 근접 이벤트 또는 펜 터치 이벤트를 출력할 수 있다. 펜 인식 패널(134)은, 예로, EMR 방식으로 구현될 수 있으며, 펜의 근접 또는 터치에 의한 전자기장의 세기 변화에 따라 터치 또는 근접 입력을 감지할 수 있다. 펜 인식 패널(134)은 그리드 구조를 가지는 전자 유도 코일 센서와 전자 유도 코일 센서의 각 루프 코일에 순차적으로 소정의 주파수를 가지는 교류 신호를 제공하는 전자 신호 처리부를 포함하여 구성될 수 있다.
출력부(135)는 디스플레이(136), 스피커(137)을 포함할 수 있다.
디스플레이(136)는 표시 패널 및 표시 패널을 제어하는 컨트롤러를 포함할 수 있다. 표시 패널은 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, AM-OLED(Active-Matrix Organic Light-Emitting Diode), PDP(Plasma Display Panel) 등과 같은 다양한 방식으로 구현될 수 있다. 표시 패널은 유연하게(flexible) 또는 착용할 수 있게(wearable) 구현될 수 있다. 디스플레이(136)는 입력부(131)의 터치 패널(133)과 결합되어 터치 스크린으로 제공될 수 있다.
스피커(137)는 오디오 데이터에 기초하여 소리를 출력할 수 있다. 예를 들어, 스피커(137)는 영상 스트림에 포함된 오디오 데이터에 따라, 사용자의 음성을 출력할 수 있다.
통신 인터페이스(140)는 다양한 유형의 통신방식에 따라 다양한 유형의 외부 기기와 통신을 수행할 수 있다. 통신 인터페이스(140)는 와이파이 칩, 블루투스 칩, NFC 칩, 무선통신 칩 중 적어도 하나를 포함할 수 있다. 프로세서(120)는 통신 인터페이스(140)를 이용하여 각종 외부 기기와 통신을 수행할 수 있다.
와이파이 칩, 블루투스 칩은 각각 WiFi 방식, 블루투스 방식으로 통신을 수행할 수 있다. 와이파이 칩이나 블루투스 칩을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. NFC 칩은 다양한 RF-ID 주파수 대역들 중에서 13.56MHz 대역을 사용하는 NFC(Near Field Communication) 방식으로 동작하는 칩을 의미한다. 무선 통신 칩은 IEEE(Institute of Electrical and Electronics Engineers), 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), 5G(5th Generation) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다.
음성 및 영상 입력부(150)는 마이크(151)와 카메라(153)를 포함할 수 있다. 마이크(151)는 사용자 음성이나 기타 소리를 입력받아 오디오 데이터로 변환할 수 있다. 프로세서(120)는 마이크(151)를 통해 입력되는 사용자 음성을 영상 통화에 이용하거나, 오디오 데이터로 변환하여 메모리(110)에 저장할 수 있다. 카메라(153)는 사용자의 제어에 따라 정지 영상 또는 동영상을 촬영할 수 있다. 카메라(153)는 제 1 단말(100-1)의 전면 또는 후면에 위치한 카메라 모듈일 수 있다. 프로세서(120)는 마이크(151)를 통해 입력되는 음성과 카메라(153)에 의해 촬영되는 영상을 이용하여, 영상 통화를 위한 영상 스트림을 생성할 수 있다.
한편, 제 1 단말(100-1)은 모션 제어 모드나 음성 제어 모드로 동작할 수 있다. 모션 제어 모드로 동작하는 경우, 프로세서(120)는 카메라(153)를 활성화시켜 사용자를 촬영하고, 사용자의 모션 변화를 추적하여 그에 대응되는 제어 동작을 수행할 수 있다. 음성 제어 모드로 동작하는 경우, 프로세서(120)는 마이크(151)를 통해 입력된 사용자 음성을 분석하고, 분석된 사용자 음성에 따라 제어 동작을 수행할 수 있다.
전술한 제 1 단말(100-1)의 구성 요소들의 명칭은 달라질 수 있다. 또한, 본 개시에 따른 제 1 단말(100-1)은 전술한 구성요소들 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 제 1 단말(100-1)은 전술한 구성요소들 중 적어도 하나를 이용하여, 다음과 같은 동작을 수행할 수 있다.
도 10은 일 실시예에 따른 영상 통화 서비스를 제공하는 서버의 구성을 나타낸 블록도이다.
도 10을 참조하면, 영상 통화 서비스를 제공하는 서버(200)는 메모리(210), 프로세서(220), 스토리지(230), 통신 인터페이스(240)을 포함한다. 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 도 12에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 알 수 있다. 도 12의 블록도의 각 구성요소는 영상 통화 서비스를 제공하는 서버(200)의 구현 방식에 따라 분리, 추가, 또는 생략될 수 있다. 즉, 구현 방식에 따라 하나의 구성요소가 2 이상의 구성요소로 세분화되거나, 2 이상의 구성요소가 하나의 구성요소로 합쳐질 수도 있고, 일부 구성요소가 더 추가되거나 제거될 수 있다.
메모리(210)는 프로세서(220)에 의해 실행 가능한 명령어들을 저장할 수 있다. 메모리(210)는 소프트웨어 또는 프로그램을 저장할 수 있다.
프로세서(220)는 메모리(210)에 저장된 명령어들을 실행할 수 있다. 프로세서(220)는 영상 통화 서비스를 제공하는 서버(200)의 전반적인 제어를 수행할 수 있다. 프로세서(220)는 통신 인터페이스(240)를 통해 수신되는 정보 및 요청 사항을 획득하고, 수신되는 정보를 스토리지(230)에 저장할 수 있다. 또한, 프로세서(220)는 수신되는 정보를 가공할 수 있다. 예를 들어, 프로세서(220)는 단말(100)로부터 수신되는 정보로부터 영상 통화 서비스에 이용되는 정보를 생성하거나, 수신되는 정보들을 관리하기 위한 가공행위를 수행하여, 스토리지(230)에 저장할 수 있다. 또한, 프로세서(220)는 단말로부터 획득된 요청 사항에 대한 응답으로써, 스토리지(230)에 저장된 정보를 이용하여, 통신 인터페이스(240)를 통해 단말에 영상 통화 서비스를 제공하기 위한 정보를 전송할 수 있다.
스토리지(230)는 영상 통화 서비스를 제공하는 서버(200)가 영상 통화 서비스를 제공하기 위해 필요한 각종 소프트웨어 및 정보들을 저장할 수 있다. 예를 들어, 스토리지(230)는 영상 통화 서비스를 제공하는 서버(200)에서 실행되는 프로그램, 애플리케이션, 및 영상 통화 서비스에 이용되는 각종 데이터를 저장할 수 있다.
스토리지(230)는 영상 통화 서비스를 이용하는 사용자별 개인 정보를 데이터베이스화하여 저장 및 관리할 수 있다. 스토리지(230)는 영상 통화 서비스를 제공하는 서버(200)에 접속하기 위한 계정별로 사용자의 신상 정보와 영상 통화 서비스에 이용되는 다양한 정보 등을 저장할 수 있다.
통신 인터페이스(240)는 단말(100)을 포함한 외부 기기와 통신을 수행할 수 있다. 예를 들어, 영상 통화 서비스를 제공하는 서버(200)는 단말로부터 영상 통화 서비스 개시 요청, 영상 통화 서비스 환경을 갖추기 위한 설정 정보에 대한 요청 등을 수신하고, 단말의 요청에 대한 응답으로, 영상 통화 서비스와 관련된 모든 사항들을 제공할 수 있다.
도 11은 다른 실시예에 따른 영상 통화 서비스를 제공하는 서버가 복수 개의 분산 서버들로 구현된 모습을 설명하기 위한 도면이다.
도 11은 다른 실시예에 따라 영상 통화 서비스를 제공하는 서버(200)가 복수 개의 분산 서버들로 구현된 모습을 설명하기 위한 도면이다. 이상에서 영상 통화 서비스를 제공하는 서버(200)와 관련하여 기재된 내용은 이하 생략된 내용이라 하더라도 그대로 적용될 수 있다.
도 11을 참고하면, 영상 통화 서비스를 제공하는 분산 서버들은 부하 분산 서버(200-1)와 영상 통화 서비스를 제공하는 기능 서버들(200-3, 200-5, 200-7)로 구성될 수 있다. 부하 분산 서버(200-1)는 단말과 같은 외부 기기의 영상 통화 서비스에 관한 요청이 있을 때, 영상 통화 서비스를 제공하는 기능 서버들(200-3, 200-5, 200-7) 중 임의의 서버를 결정하여 단말에 연결시키거나, 영상 통화 서비스를 제공하는 기능 서버들(200-3, 200-5, 200-7)의 상태를 모니터링하여 최적의 서버를 선택하여 단말(100)에 연결시킬 수 있다.
도 12는 일 개시에 의한 노출영역을 통해 영상 통화 서비스를 제공하는 방법을 설명하기 위한 흐름도이다.
블록 1201에서, 일 개시에 의하여 서버(200)는 서버(200)는 제 1 단말(100-1)과 제 2 단말(100-2) 간의 영상 통화 세션을 수립할 수 있다. 일 개시에 의하여, 서버(200)는 제 1 사용자(21)를 촬영한 제 1 영상 스트림을 제 1 단말(100-1)로부터 수신하여, 제 2 단말(100-2)로 전송할 수 있다. 일 개시에 의하여, 서버(200)는 제 2 사용자(31)를 촬영한 제 2 영상 스트림을 제 2 단말(100-2)로부터 수신하여, 제 1 단말(100-1)로 전송할 수 있다.
블록 1202에서, 일 개시에 의하여 서버(200)는 제 1 단말(100-1)의 영상 통화 화면에 표시되는 제 2 사용자 영상 및 제 2 단말(100-2)의 영상 통화 화면에 표시되는 제 1 사용자 영상에서 노출영역을 제외한 나머지 영역을 변조하여 송출할 수 있다. 제 1 단말(100-1)에 제 2 사용자(31)의 영상을 송출하면서, 제 2 사용자(31)의 영상 위에 노출영역을 제외한 나머지 영역을 사용자가 식별할 수 없도록 변조하여 송출할 수 있다. 또한, 서버(200)는 제 2 단말(100-2)로 노출영역을 제외한 나머지 영역을 변조한 제 1 사용자 영상을 전송할 수 있다.
블록 1203에서, 일 개시에 의하여 서버(200)는 영상 통화 세션이 유지되는 중 소정의 이벤트를 검출할 수 있다. 일 개시에 의하여 소정의 이벤트는 제 1 단말(100-1)과 제 2 단말(100-2)의 영상 통화 세션의 유지시간, 노출영역 조절 아이콘의 선택, 노출영역의 조절을 요청하는 사용자 입력, 친구추가 이벤트, 영상에서 검출된 사용자의 제스처 및 영상 통화 중 사용된 텍스트 정보, 음성신호, 이모티콘 정보를 포함함 수 있다.
블록 1204에서, 일 개시에 의하여 서버(200)는 소정의 이벤트에 기초하여 제 1 단말(100-1) 및 제 2 단말(100-2)의 노출영역의 크기를 제어할 수 있다. 일 개시에 의하여, 서버(200)는 제 1 단말(100-1) 및 제 2 단말(100-2) 각각의 노출영역의 크기를 동시에 제어할 수 있다.
한편 상술한 영상 통화 서비스를 제공하는 방법에 관한 실시예들은 영상 통화 서비스를 제공하는 제 1 단말(100-1) 또는 제 2 단말(100-2)에서, 영상 통화 서비스를 제공하는 방법을 수행하도록 하는 컴퓨터 판독가능 저장매체에 저장된 애플리케이션 형태로 제공될 수 있다. 다시 말해서, 제 1 단말(100-1) 또는 제 2 단말(100-2)로 하여금 상술한 영상 통화서비스를 제공하는 방법의 각 단계를 실행시키기 위한 컴퓨터 판독가능 저장매체에 저장된 애플리케이션 또는 컴퓨터 프로그램 형태로 제공될 수 있다.
한편, 상술한 실시예들은 컴퓨터 또는 프로세서에 의하여 실행 가능한 명령어 또는 데이터를 저장하는 컴퓨터 판독 가능 저장매체의 형태로 구현될 수 있다. 상기 명령어 및 데이터 중 적어도 하나는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 소정의 프로그램 모듈을 생성하여 소정의 동작을 수행할 수 있다. 이와 같은 컴퓨터 판독 가능 저장매체는 read-only memory (ROM), random-access memory (RAM), flash memory, CD-ROMs, CD-Rs, CD+Rs, CD-RWs, CD+RWs, DVD-ROMs, DVD-Rs, DVD+Rs, DVD-RWs, DVD+RWs, DVD-RAMs, BD-ROMs, BD-Rs, BD-R LTHs, BD-REs, 마그네틱 테이프, 플로피 디스크, 광자기 데이터 저장 장치, 광학 데이터 저장 장치, 하드 디스크, 솔리드-스테이트 디스크(SSD), 그리고 명령어 또는 소프트웨어, 관련 데이터, 데이터 파일, 및 데이터 구조들을 저장할 수 있고, 프로세서나 컴퓨터가 명령어를 실행할 수 있도록 프로세서나 컴퓨터에 명령어 또는 소프트웨어, 관련 데이터, 데이터 파일, 및 데이터 구조들을 제공할 수 있는 어떠한 장치라도 될 수 있다.
이제까지 실시예들을 중심으로 살펴보았다. 개시된 실시예들이 속하는 기술 분야에서 통상의 지식을 가진 자는 개시된 실시예들이 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 발명의 범위는 전술한 실시예들의 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 발명의 범위에 포함된 것으로 해석되어야 할 것이다.

Claims (17)

  1. 제 1 단말에서,
    제 1 단말과 제 2 단말 간의 영상 통화 세션을 수립하는 단계;
    상기 제 1 단말에 표시되는 제 2 사용자의 영상에서 노출영역을 제외한 나머지 영역을 변조하여 표시하는 단계;
    상기 영상 통화 세션이 유지되는 중 소정의 이벤트를 검출하는 단계;및
    상기 소정의 이벤트에 기초하여 상기 노출영역의 크기를 제어하는 단계;를 포함하고,
    상기 소정의 이벤트는,
    상기 제 2 단말로 노출영역의 조절을 요청하는 사용자 입력인, 영상 통화 서비스를 제공하는 방법을 수행하도록 하는 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 제 1 항에 있어서,
    상기 노출영역의 크기를 제어하는 단계는,
    상기 제 2 단말로 노출영역을 조절하기 위한 요청 신호를 전송하는 단계;
    상기 제 2 단말로부터 상기 요청 신호에 대한 응답으로서 상기 노출영역을 조절하기 위한 수락 신호를 수신하는 단계;및
    상기 수락 신호에 기초하여, 상기 노출영역의 크기를 제어하는 단계;를 포함하는, 영상 통화 서비스를 제공하는 방법을 수행하도록 하는 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션.
  8. 삭제
  9. 제 1 단말에서,
    제 1 단말과 제 2 단말 간의 영상 통화 세션을 수립하는 단계;
    상기 제 1 단말에 표시되는 제 2 사용자의 영상에서 노출영역을 제외한 나머지 영역을 변조하여 표시하는 단계;
    상기 영상 통화 세션이 유지되는 중 소정의 이벤트를 검출하는 단계;및
    상기 소정의 이벤트에 기초하여 상기 노출영역의 크기를 제어하는 단계;를 포함하고,
    상기 노출영역의 크기를 제어하는 단계는,
    제 1 사용자를 촬영한 제 1 영상 및 상기 제 2 단말로부터 수신한 상기 제 2 사용자를 촬영한 제 2 영상에서 검출한 제 1 사용자의 제스처 및 제 2 사용자의 제스처 중 적어도 하나에 대응되는 이모션 정보가 긍정적 반응으로 분류된 정보에 포함되는 경우, 상기 노출영역의 크기를 제어하는, 영상 통화 서비스를 제공하는 방법을 수행하도록 하는 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션.
  10. 삭제
  11. 제 1 항에 있어서,
    상기 제 2 단말로, 상기 제 2 단말의 영상 통화 화면에 표시되는 제 1 사용자의 영상의 노출영역을 제어하는 신호를 전송하는 단계를 더 포함하는, 영상 통화 서비스를 제공하는 방법을 수행하도록 하는 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션.
  12. 제 1 항에 있어서,
    상기 이벤트 검출에 기초하여, 상기 노출영역을 제외한 나머지영역의 속성을 변경하는 단계;를 더 포함하는, 영상 통화 서비스를 제공하는 방법을 수행하도록 하는 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션.
  13. 제 1 항에 있어서,
    상기 이벤트 검출에 기초하여, 상기 제 1 단말에서 수신하는 음성 신호 및 상기 제 2 단말로 전송되는 음성 신호의 속성 중 적어도 하나를 변경하는 단계;를 더 포함하는, 영상 통화 서비스를 제공하는 방법을 수행하도록 하는 컴퓨터 판독 가능 저장매체에 저장된 애플리케이션.
  14. 영상 통화 서비스를 제공하는 단말과 통신을 수행하는 통신 인터페이스;
    프로세서; 및
    상기 프로세서에 의해 실행 가능한 명령어들을 저장하는 메모리;를 포함하고,상기 프로세서는,
    상기 명령어들을 실행함으로써,
    제 1 단말과 제 2 단말 간의 영상 통화 세션을 수립하고, 상기 제 1 단말의 영상 통화 화면에 표시되는 제 2 사용자의 영상에서 노출영역을 제외한 나머지 영역을 변조하고, 상기 영상 통화 세션이 유지되는 중 소정의 이벤트를 검출하고, 상기 소정의 이벤트에 기초하여 상기 노출영역의 크기를 제어하며,
    상기 소정의 이벤트는,
    상기 제 2 단말로 노출영역의 조절을 요청하는 사용자 입력인, 영상 통화 서비스를 제공하는 서버.
  15. 제 1 단말과 제 2 단말 간의 영상 통화 세션을 수립하는 명령어들;
    상기 제 1 단말의 영상 통화 화면에 표시되는 제 2 사용자의 영상에서 노출영역을 제외한 나머지 영역을 변조하여 표시하는 명령어들;
    상기 영상 통화 세션이 유지되는 중 소정의 이벤트를 검출하는 명령어들; 및
    상기 소정의 이벤트에 기초하여 상기 노출영역의 크기를 제어하는 명령어들;
    을 포함하고,
    상기 소정의 이벤트는,
    상기 제 2 단말로 노출영역의 조절을 요청하는 사용자 입력인, 프로세서에 의해 실행 가능한 명령어들이 저장된 비일시적 컴퓨터 판독 가능 저장매체.
  16. 영상 통화 서비스를 제공하는 단말과 통신을 수행하는 통신 인터페이스;
    프로세서; 및
    상기 프로세서에 의해 실행 가능한 명령어들을 저장하는 메모리;를 포함하고,
    상기 프로세서는,
    상기 명령어들을 실행함으로써,
    제 1 단말과 제 2 단말 간의 영상 통화 세션을 수립하고, 상기 제 1 단말의 영상 통화 화면에 표시되는 제 2 사용자의 영상에서 노출영역을 제외한 나머지 영역을 변조하고, 상기 영상 통화 세션이 유지되는 중 소정의 이벤트를 검출하고, 상기 소정의 이벤트에 기초하여 상기 노출영역의 크기를 제어하며,
    상기 제 1 단말로부터 수신한 제 1 사용자를 촬영한 제 1 영상 및 상기 제 2 단말로부터 수신한 상기 제 2 사용자를 촬영한 제 2 영상에서 검출한 제 1 사용자의 제스처 및 제 2 사용자의 제스처 중 적어도 하나에 대응되는 이모션 정보가 긍정적 반응으로 분류된 정보에 포함되는 경우, 상기 노출영역의 크기를 제어하는, 영상 통화 서비스를 제공하는 서버.
  17. 제 1 단말과 제 2 단말 간의 영상 통화 세션을 수립하는 명령어들;
    상기 제 1 단말의 영상 통화 화면에 표시되는 제 2 사용자의 영상에서 노출영역을 제외한 나머지 영역을 변조하여 표시하는 명령어들;
    상기 영상 통화 세션이 유지되는 중 소정의 이벤트를 검출하는 명령어들; 및
    상기 소정의 이벤트에 기초하여 상기 노출영역의 크기를 제어하는 명령어들;을 포함하고,
    상기 노출영역의 크기를 제어하는 명령어들은,
    제 1 사용자를 촬영한 제 1 영상 및 상기 제 2 단말로부터 수신한 상기 제 2 사용자를 촬영한 제 2 영상에서 검출한 제 1 사용자의 제스처 및 제 2 사용자의 제스처 중 적어도 하나에 대응되는 이모션 정보가 긍정적 반응으로 분류된 정보에 포함되는 경우, 상기 노출영역의 크기를 제어하는, 프로세서에 의해 실행 가능한 명령어들이 저장된 컴퓨터 판독 가능 저장매체.

KR1020170181512A 2017-12-27 2017-12-27 영상 통화 서비스를 제공하는 단말 및 서버 KR102044242B1 (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020170181512A KR102044242B1 (ko) 2017-12-27 2017-12-27 영상 통화 서비스를 제공하는 단말 및 서버
EP18213173.0A EP3506628A1 (en) 2017-12-27 2018-12-17 Terminal and server for providing video call service
US16/223,600 US10574941B2 (en) 2017-12-27 2018-12-18 Terminal and server for providing video call service
JP2018238541A JP6742394B2 (ja) 2017-12-27 2018-12-20 映像通話サービスを提供する端末及びサーバ
US16/737,355 US11140356B2 (en) 2017-12-27 2020-01-08 Terminal and server for providing video call service
JP2020127599A JP6938734B2 (ja) 2017-12-27 2020-07-28 映像通話サービスを提供する端末及びサーバ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170181512A KR102044242B1 (ko) 2017-12-27 2017-12-27 영상 통화 서비스를 제공하는 단말 및 서버

Publications (2)

Publication Number Publication Date
KR20190079365A KR20190079365A (ko) 2019-07-05
KR102044242B1 true KR102044242B1 (ko) 2019-11-13

Family

ID=64744495

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170181512A KR102044242B1 (ko) 2017-12-27 2017-12-27 영상 통화 서비스를 제공하는 단말 및 서버

Country Status (4)

Country Link
US (2) US10574941B2 (ko)
EP (1) EP3506628A1 (ko)
JP (2) JP6742394B2 (ko)
KR (1) KR102044242B1 (ko)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101929372B1 (ko) 2014-05-30 2018-12-17 애플 인크. 하나의 디바이스의 사용으로부터 다른 디바이스의 사용으로의 전환
DK201670622A1 (en) 2016-06-12 2018-02-12 Apple Inc User interfaces for transactions
US11553157B2 (en) 2016-10-10 2023-01-10 Hyperconnect Inc. Device and method of displaying images
KR101932844B1 (ko) 2017-04-17 2018-12-27 주식회사 하이퍼커넥트 영상 통화 장치, 영상 통화 방법 및 영상 통화 중개 방법
KR102044242B1 (ko) 2017-12-27 2019-11-13 주식회사 하이퍼커넥트 영상 통화 서비스를 제공하는 단말 및 서버
DK180130B1 (da) 2018-05-07 2020-06-02 Apple Inc. Multi-participant live communication user interface
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
KR102266888B1 (ko) * 2018-12-31 2021-06-21 주식회사 하이퍼커넥트 영상 통화 서비스를 제공하는 단말기 및 서버
KR102282963B1 (ko) 2019-05-10 2021-07-29 주식회사 하이퍼커넥트 단말기, 서버 및 그것의 동작 방법
WO2020243691A1 (en) 2019-05-31 2020-12-03 Apple Inc. User interfaces for audio media control
US10996917B2 (en) 2019-05-31 2021-05-04 Apple Inc. User interfaces for audio media control
CN110519151B (zh) * 2019-07-12 2021-06-01 湖南新云网科技有限公司 可控好友添加方法、装置、终端设备及存储介质
GB2587231B (en) * 2019-09-20 2024-04-17 Neatframe Ltd Ultrasonic-based person detection system and method
KR102311603B1 (ko) 2019-10-01 2021-10-13 주식회사 하이퍼커넥트 단말기 및 그것의 동작 방법
KR102293422B1 (ko) 2020-01-31 2021-08-26 주식회사 하이퍼커넥트 단말기 및 그것의 동작 방법
US11392291B2 (en) 2020-09-25 2022-07-19 Apple Inc. Methods and interfaces for media control with dynamic feedback
CN113206970A (zh) * 2021-04-16 2021-08-03 广州朗国电子科技有限公司 一种用于视频通讯的无线投屏方法、装置及存储介质
US11907605B2 (en) 2021-05-15 2024-02-20 Apple Inc. Shared-content session user interfaces
US11893214B2 (en) 2021-05-15 2024-02-06 Apple Inc. Real-time communication user interface
US11449188B1 (en) 2021-05-15 2022-09-20 Apple Inc. Shared-content session user interfaces
KR20220157752A (ko) * 2021-05-21 2022-11-29 삼성전자주식회사 전자 장치 및 리액션 서비스 기반의 영상 통화 방법
US11847378B2 (en) 2021-06-06 2023-12-19 Apple Inc. User interfaces for audio routing
US11770600B2 (en) 2021-09-24 2023-09-26 Apple Inc. Wide angle video conference
WO2023095531A1 (ja) * 2021-11-25 2023-06-01 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理プログラム
WO2023196231A1 (en) * 2022-04-04 2023-10-12 Apple Inc. User interfaces for camera sharing
US20230344956A1 (en) * 2022-04-20 2023-10-26 Samsung Electronics Company, Ltd. Systems and Methods for Multi-user Video Communication with Engagement Detection and Adjustable Fidelity

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001309325A (ja) * 2000-04-19 2001-11-02 Mitsubishi Electric Corp テレビ電話装置
JP2006270380A (ja) * 2005-03-23 2006-10-05 Victor Co Of Japan Ltd 画像情報送信装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09214921A (ja) * 1996-02-02 1997-08-15 Canon Inc 画像処理装置と画像処理方法、並びに画像通信システム
EP1311124A1 (en) 2001-11-13 2003-05-14 Matsushita Electric Industrial Co., Ltd. Selective protection method for images transmission
JP3838506B2 (ja) 2001-11-13 2006-10-25 松下電器産業株式会社 画像を用いる通信方法及びその装置
US7321384B1 (en) * 2003-06-03 2008-01-22 Cisco Technology, Inc. Method and apparatus for using far end camera control (FECC) messages to implement participant and layout selection in a multipoint videoconference
US8977063B2 (en) * 2005-03-09 2015-03-10 Qualcomm Incorporated Region-of-interest extraction for video telephony
US8253770B2 (en) * 2007-05-31 2012-08-28 Eastman Kodak Company Residential video communication system
US8165416B2 (en) * 2007-06-29 2012-04-24 Microsoft Corporation Automatic gain and exposure control using region of interest detection
KR101403785B1 (ko) * 2007-08-16 2014-06-03 엘지전자 주식회사 터치 스크린을 구비한 이동통신 단말기 및 그 영상 통화제어방법
KR101189053B1 (ko) * 2009-09-05 2012-10-10 에스케이플래닛 주식회사 아바타 기반 화상 통화 방법 및 시스템, 이를 지원하는 단말기
US8970653B2 (en) * 2011-06-16 2015-03-03 Vtel Products Corporation, Inc. Video conference control system and method
JP6097679B2 (ja) * 2013-02-28 2017-03-15 エルジー アプラス コーポレーション 端末間機能共有方法及びその端末
US9013536B2 (en) * 2013-03-13 2015-04-21 Futurewei Technologies, Inc. Augmented video calls on mobile devices
CN104836977B (zh) * 2014-02-10 2018-04-24 阿里巴巴集团控股有限公司 即时通讯过程中的视频通讯方法及系统
US9858470B2 (en) * 2014-07-18 2018-01-02 Htc Corporation Method for performing a face tracking function and an electric device having the same
US9282287B1 (en) * 2014-09-09 2016-03-08 Google Inc. Real-time video transformations in video conferences
US9516220B2 (en) * 2014-10-02 2016-12-06 Intel Corporation Interactive video conferencing
US9848167B1 (en) * 2016-06-21 2017-12-19 Amazon Technologies, Inc. Low bandwidth video
KR102044242B1 (ko) 2017-12-27 2019-11-13 주식회사 하이퍼커넥트 영상 통화 서비스를 제공하는 단말 및 서버

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001309325A (ja) * 2000-04-19 2001-11-02 Mitsubishi Electric Corp テレビ電話装置
JP2006270380A (ja) * 2005-03-23 2006-10-05 Victor Co Of Japan Ltd 画像情報送信装置

Also Published As

Publication number Publication date
KR20190079365A (ko) 2019-07-05
JP6938734B2 (ja) 2021-09-22
US20190199963A1 (en) 2019-06-27
US20200145613A1 (en) 2020-05-07
US10574941B2 (en) 2020-02-25
JP2019122036A (ja) 2019-07-22
EP3506628A1 (en) 2019-07-03
JP2020202567A (ja) 2020-12-17
JP6742394B2 (ja) 2020-08-19
US11140356B2 (en) 2021-10-05

Similar Documents

Publication Publication Date Title
KR102044242B1 (ko) 영상 통화 서비스를 제공하는 단말 및 서버
KR102044241B1 (ko) 영상 통화 서비스를 제공하는 단말
KR102266888B1 (ko) 영상 통화 서비스를 제공하는 단말기 및 서버
KR102271308B1 (ko) 영상통화 중에 상호작용 가능한 시각적 오브젝트를 제공하기 위한 방법, 및 이를 수행하는 상호작용 가능한 시각적 오브젝트 제공 시스템
TWI681298B (zh) 觸碰式通訊系統和方法
US11604535B2 (en) Device and method for processing user input
KR102034838B1 (ko) 영상 통화 서비스를 제공하는 단말과 서버
US9977510B1 (en) Gesture-driven introduction system
KR102120871B1 (ko) 영상 통화 서비스를 제공하는 단말 및 서버
US10554698B2 (en) Terminal and server providing video call service
CN109150976A (zh) 提供安全服务的方法、装置及存储介质
US10721437B2 (en) Terminal and server for providing video call service
KR20140089069A (ko) 재생 가능 객체를 생성하는 사용자 단말 장치 및 그 인터렉션 방법
KR102034839B1 (ko) 영상 통화 서비스를 제공하는 단말 및 서버
WO2023172332A1 (en) Video stream refinement for dynamic scenes

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant