KR20230047172A - 영상 통화의 인터렉션 방법과 장치 - Google Patents

영상 통화의 인터렉션 방법과 장치 Download PDF

Info

Publication number
KR20230047172A
KR20230047172A KR1020237008016A KR20237008016A KR20230047172A KR 20230047172 A KR20230047172 A KR 20230047172A KR 1020237008016 A KR1020237008016 A KR 1020237008016A KR 20237008016 A KR20237008016 A KR 20237008016A KR 20230047172 A KR20230047172 A KR 20230047172A
Authority
KR
South Korea
Prior art keywords
input
video call
target
user
preset
Prior art date
Application number
KR1020237008016A
Other languages
English (en)
Inventor
슈앙슈앙 후
Original Assignee
비보 모바일 커뮤니케이션 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 비보 모바일 커뮤니케이션 컴퍼니 리미티드 filed Critical 비보 모바일 커뮤니케이션 컴퍼니 리미티드
Publication of KR20230047172A publication Critical patent/KR20230047172A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 출원은 영상 통화의 인터렉션 방법과 장치에 관한 것으로서, 통신기술 분야에 속한다. 상기 영상 통화의 인터렉션 방법은, 제1 사용자가 제2 사용자와 영상 통화를 하는 경우, 영상 통화 인터페이스에서 제1 사용자에 대응하는 제1 대상에 대한 제2 사용자의 제1 입력을 수신하는 단계; 제1 입력에 응답하여, 제1 입력에 대응하는 제1 미리 설정된 디스플레이 방식에 따라 영상 통화 인터페이스에서 제1 대상을 표시하는 바, 제1 입력은 제1 대상의 목표 부위에 대한 터치 입력을 포함하고, 제1 미리 설정된 디스플레이 방식은 터치 입력에 대응하는 목표 부위가 변형되는 것을 포함하는 단계;를 포함한다.

Description

영상 통화의 인터렉션 방법과 장치
본 출원은 통신기술 분야에 관한 것으로서, 특히 영상 통화의 인터렉션 방법과 장치에 관한 것이다.
<관련 출원의 상호 인용>
본 출원은 2020년 10월 27일 중국에서 제출된 중국 특허 출원 번호 202011167360.2의 우선권을 주장하며, 본 출원에서는 그 모든 내용을 인용하고 있다.
모바일 인터넷의 활발한 발전과 전자 기기의 끊임없는 보급에 따라, 사용자는 모바일 인터넷에 대해 더 많은 요구를 가지게 되었다. 현재, 영상 통화는 전자 기기의 실용적인 기능으로서 점점 더 많은 사람들의 각광을 받고 있으며, 전자 기기를 통해 영상 통화를 하는 사용자도 갈수록 많아지고 있다.
관련 기술에서, 사용자 쌍방이 전자 기기를 통해 영상 통화를 할 때, 사용자는 스크린에서 상대방의 실제적인 화면을 볼 수 있어, 상대방을 보면서 소통을 하는 통화 체험을 구현할 수 있다. 그러나, 영상 통화는 인터넷과 스크린을 사이에 두므로, 관련 기술에서 재미성이 높은 인터렉션 기능이 부족하고, 인터렉션 방식이 단일하여, 사용자의 영상 통화 과정에서 다양한 인터렉션 체험을 제공할 수 없다.
본 출원의 실시예의 목적은 영상 통화 과정에서 인터렉션 방식이 단일한 관련 기술의 문제를 해결할 수 있는 영상 통화의 인터렉션 방법과 장치를 제공하는 것이다.
제1 면에서, 본 출원의 실시예는 적어도 하나의 스크린을 갖는 전자 기기에 적용되며,
제1 사용자가 제2 사용자와 영상 통화를 하는 경우, 영상 통화 인터페이스에서 제1 사용자에 대응하는 제1 대상에 대한 제2 사용자의 제1 입력을 수신하는 단계;
제1 입력에 응답하여, 제1 입력에 대응하는 제1 미리 설정된 디스플레이 방식에 따라 영상 통화 인터페이스에서 제1 대상을 표시하는 바, 제1 입력은 제1 대상의 목표 부위에 대한 터치 입력을 포함하며, 제1 미리 설정된 디스플레이 방식은 터치 입력에 대응하는 목표 부위가 변형되는 것을 포함하는 단계;를 포함하는 영상 통화의 인터렉션 방법을 제공한다.
제2 면에서, 본 출원의 실시예는 적어도 하나의 스크린을 갖는 전자 기기에 적용되고,
제1 사용자가 제2 사용자와 영상 통화를 하는 경우, 영상 통화 인터페이스에서 제1 사용자에 대응하는 제1 대상에 대한 제2 사용자의 제1 입력을 수신하기 위한 수신 모듈;
제1 입력에 응답하여, 제1 입력에 대응하는 제1 미리 설정된 디스플레이 방식에 따라 영상 통화 인터페이스에서 제1 대상을 표시하는 바, 제1 입력은 제1 대상의 목표 부위에 대한 터치 입력을 포함하고, 제1 미리 설정된 디스플레이 방식은 터치 입력에 대응하는 목표 부위가 변형되는 디스플레이 모듈;을 포함하는 영상 통화의 인터렉션 장치를 제공한다.
제3 면에서, 본 출원의 실시예는 프로세서, 메모리 및 메모리에 저장되고 프로세서에 의해 실행 가능한 프로그램 또는 명령을 포함하며, 상기 프로세서에 의해 실행되면 제1 면에 따른 영상 통화의 인터렉션 방법의 단계가 구현되는 전자 기기를 제공한다.
제4 면에서, 본 출원의 실시예는 프로세서에 의해 실행되면, 제1면에 따른 영상 통화의 인터렉션 방법의 단계가 구현되는 프로그램 또는 명령이 저장되어 있는 판독 가능한 저장매체를 제공한다.
제5 면에서, 본 출원의 실시예는 프로세서 및 통신 인터페이스를 포함하며, 통신 인터페이스는 프로세서와 결합되고, 프로세서는 프로그램 또는 명령을 실행하여 제1 면에 따른 영상 통화의 인터렉션 방법을 구현하는 칩을 제공한다.
본 출원의 실시예에서, 제1 사용자가 제2 사용자와 영상 통화를 하는 과정에서, 제2 사용자는 영상 통화 인터페이스에 표시된 제1 사용자에 대응하는 제1 대상에 대해 제1 입력을 할 수 있다. 전자 기기가 상기 제1 입력을 수신하면, 상기 제1 입력에 응답하여 상기 제1 입력에 대응하는 제1 미리 설정된 디스플레이 방식에 따라 제1 대상을 표시할 수 있다. 예를 들어, 사용자는 영상 통화 인터페이스에 표시된 영상 통화 대상의 목표 부위에 대해 터치 조작을 할 수 있고, 상기 터치 조작에 응답하여 인터페이스에 표시된 상기 영상 통화 대상의 목표 부위는 상응하는 변형이 발생할 수 있다. 이와 같이, 영상 통화 과정에서 사용자에게 다양한 인터렉션 방식을 제공할 수 있으며, 사용자는 영상 통화 인터페이스에서 실시하는 조작들을 통해 영상 통화 대상의 영상 통화 인터페이스에서의 디스플레이 방식을 변화시켜, 재미있는 인터렉션 효과를 구현하고, 사용자의 영상 통화 체험을 효과적으로 개선할 수 있다.
도 1은 본 출원에 따른 영상 통화의 인터렉션 방법의 실시예의 흐름 모식도이다.
도 2는 본 출원의 실시예에 따른 영상 통화의 인터렉션 인터페이스의 모식도(1)이다.
도 3은 본 출원의 실시예에 따른 영상 통화의 인터렉션 인터페이스의 모식도(2)이다.
도 4는 본 출원의 실시예에 따른 영상 통화의 인터렉션 인터페이스의 모식도(3)이다.
도 5는 본 출원의 실시예에 따른 영상 통화의 인터렉션 인터페이스의 모식도(4)이다.
도 6은 본 출원의 실시예에 따른 영상 통화의 인터렉션 인터페이스의 모식도(5)이다.
도 7은 본 출원에 따른 영상 통화의 인터렉션 방법의 다른 실시예의 흐름 모식도이다.
도 8은 본 출원의 실시예에 따른 영상 통화의 인터렉션 인터페이스의 모식도(6)이다.
도 9는 본 출원의 실시예에 따른 영상 통화의 인터렉션 인터페이스의 모식도(7)이다.
도 10은 본 출원에 따른 영상 통화의 인터렉션 방법의 또 다른 실시예의 흐름 모식도이다.
도 11은 본 출원의 실시예에 따른 영상 통화의 인터렉션 인터페이스의 모식도(8)이다.
도 12는 본 출원의 실시예에 따른 영상 통화의 인터렉션 인터페이스의 모식도(9)이다.
도 13은 본 출원의 실시예에 따른 전자 기기의 구조 모식도이다.
도 14는 본 출원의 실시예에 따른 영상 통화의 인터렉션 인터페이스의 모식도(10)이다.
도 15는 본 출원의 실시예에 따른 영상 통화의 인터렉션 장치의 구조 모식도이다.
도 16은 본 출원의 실시예에 따른 전자 기기의 예시의 하드웨어 구조 모식도이다.
도 17은 본 출원의 실시예에 따른 전자 기기의 다른 예시의 하드웨어 구조 모식도이다.
이하, 본 발명의 각 특징과 예시적인 실시예를 상세하게 설명한다. 본 발명의 목적, 기술적 방안 및 장점을 보다 명확하게 하기 위해, 이하에서는 첨부 도면과 구체적인 실시예를 결부하여 본 발명을 더욱 자세히 설명하기로 한다. 여기서 설명한 구체적인 실시예는 단지 본 발명을 해석하기 위한 것일 뿐, 본 발명을 한정하기 위한 것이 아님을 이해해야 한다. 해당 분야에서 통상의 지식을 가진 자라면 이러한 구체적인 세부 사항 중의 일부 세부 사항 없이 본 발명을 구현할 수 있다. 실시예에 대한 하기 설명은 단지 본 발명의 예시를 제시함으로써 본 발명을 보다 명백하게 이해하기 위해 제공하는 것이다.
본 출원에서 사용하는 "제1", "제2" 등 용어는 유사한 대상을 구분하기 위한 것일 뿐, 특정한 순서 또는 선후 차례를 나타내기 위한 것이 아니다. 본 출원의 실시예는 여기에 도시되거나 설명된 것 이외의 순서로 구현될 수 있도록 사용된 데이터가 적절한 경우에 교환될 수 있는 것을 이해해야 한다. "제1", "제2"로 구별되는 대상은 일반적으로 하나의 종류이고 대상의 수를 제한하지 않는다. 예를 들어, 제1 대상은 하나 또는 복수 개일 수 있다. 또한, 명세서 및 청구 범위의 "및/또는"은 연결된 대상 중의 적어도 하나를 나타내는데, 문자 "/"는 일반적으로 전후 관련된 대상이 "또는"의 관계임을 나타낸다.
예를 들어 배경 기술, 관련 기술에서, 사용자 쌍방이 전자 기기를 통해 영상 통화를 할 때, 사용자는 스크린에서 상대방의 실제 화면을 볼 수 있어, 서로 상대방을 보면서 소통하는 통화 체험을 구현할 수 있다.
그러나, 영상 통화는 인터넷과 스크린을 사이에 두므로, 관련 기술에서 재미성이 높은 인터렉션 기능이 부족하고, 인터렉션 방식이 단일하여 사용자의 영상 통화 과정에서 다양한 인터렉션 체험을 제공할 수 없다.
관련 기술에서 나타난 문제점에 대해, 본 출원의 실시예는 영상 통화의 인터렉션 방법을 제공하는데, 제1 사용자가 제2 사용자와 영상 통화를 하는 과정에서, 제2 사용자는 영상 통화 인터페이스에 표시된 제1 사용자에 대응하는 제1 대상에 대해 제1 입력을 할 수 있다. 전자 기기가 상기 제1 입력을 수신하면, 상기 제1 입력에 응답하여 상기 제1 입력에 대응하는 제1 미리 설정된 디스플레이 방식에 따라 제1 대상을 표시할 수 있다. 예를 들어, 사용자는 영상 통화 인터페이스에 표시된 영상 통화 대상의 목표 부위에 대해 터치 조작을 할 수 있으며, 상기 터치 조작에 응답하여 인터페이스에 표시된 상기 영상 통화 대상의 목표 부위는 상응하게 변형될 수 있다. 이와 같이, 영상 통화 과정에서 사용자에게 다양한 인터렉션 방식을 제공할 수 있고, 사용자는 영상 통화 인터페이스에서 실시하는 조작들을 통해 영상 통화 대상의 영상 통화 인터페이스에서의 디스플레이 방식을 변경시켜 재미있는 인터렉션 효과를 구현하고, 사용자의 영상 통화 체험을 효과적으로 개선할 수 있어, 영상 통화 과정에서 인터렉션 방식이 단일한 관련 기술의 문제를 해결하였다.
이하, 첨부 도면을 참조하여 영상 통화의 인터렉션 방법의 실행 주체가 적어도 하나의 스크린을 갖는 전자 기기인 것을 예로 하여 구체적인 실시예를 통해 본 출원의 실시예에 따른 영상 통화의 인터렉션 방법을 상세하게 설명하기로 한다. 설명해야 할 바로는, 상술한 실행 주체는 본 출원에 대한 제한을 구성하지 않는다.
설명해야 할 바로는, 본 출원의 실시예에 따른 전자 기기는 휴대폰, 태블릿 PC, 스마트 웨어러블 기기 등과 같이 정보 수신 및 디스플레이 기능이 있는 기기 중의 적어도 하나를 포함할 수 있다.
도 1은 본 출원에 따른 영상 통화의 인터렉션 방법의 실시예의 흐름 모식도이다. 도 1에 도시된 바와 같이, 상기 영상 통화의 인터렉션 방법은 S101과 S102를 포함할 수 있다.
제1 사용자가 제2 사용자와 영상 통화를 하는 경우, 영상 통화 인터페이스에서 제1 사용자에 대응하는 제1 대상에 대한 제2 사용자의 제1 입력을 수신한다(S101).
제2 사용자가 전자 기기를 통해 제1 사용자와 영상 통화를 하는 과정에서, 통화 인터페이스는 제1 사용자에 대응하는 제1 대상과 제2 사용자에 대응하는 제2 대상이 표시되어 있을 수 있다.
일 예시에서, 제1 사용자는 사용자 A이고, 제2 사용자는 사용자 B이다. 도 2는 본 출원에 따른 영상 통화의 인터렉션 인터페이스 예시의 모식도이다. 도 2에 도시된 바와 같이, 사용자 A, B의 영상 통화 인터페이스에는 대상 a, b가 표시되어 있다. 여기서, 대상 a는 사용자 A에 대응하는 제1 대상이고, 대상 b는 사용자 B에 대응하는 제2 대상이다.
전자 기기는 영상 통화 인터페이스에서 제1 사용자에 대응하는 제1 대상에 대한 제2 사용자의 제1 입력을 수신한다. 여기서, 제1 입력은 제1 대상의 목표 부위에 대한 터치 입력을 포함할 수 있다.
여기서, 목표 부위는 제2 사용자가 제1 대상의 복수 개의 신체 부위 중에서 선택한 어느 한 신체 부위일 수 있는데, 예를 들어 제1 대상의 얼굴, 어깨, 손 등이다. 터치 입력은 목표 부위에 대한 제2 사용자의 클릭 입력, 더블 클릭 입력, 드래그 입력, 슬라이드 입력 등, 및 두개 또는 그 이상의 입력의 조합일 수 있다.
예시적으로, 도 3에 도시된 바와 같이, 제1 사용자에 대응하는 제1 대상은 대상 a이며, 제1 입력은 대상 a의 얼굴 위치 N1(즉 목표 부위)에 대한 제2 사용자의 드래그 입력일 수 있다.
일 실시예에서, 제1 사용자가 제2 사용자와 영상 통화를 하는 경우, 영상 통화 인터페이스에서 제1 사용자에 대응하는 제1 대상에 대한 제2 사용자의 제1 입력을 수신하는 것은, 제1 사용자가 제2 사용자와 영상 통화를 하는 경우, 영상 통화 인터페이스에서 제1 사용자에 대응하는 제1 대상의 목표 부위에 대한 제2 사용자의 터치 입력을 수신하는 것을 포함할 수 있다.
일 실시예에서, 상술한 적어도 하나의 스크린을 갖는 전자 기기가 스마트 웨어러블 기기인 경우, 제2 사용자에 대응하는 제2 대상은 제2 사용자의 파노라마 인상일 수 있다.
제1 입력에 응답하여, 제1 입력에 대응하는 제1 미리 설정된 디스플레이 방식에 따라 영상 통화 인터페이스에서 제1 대상을 표시한다(S102).
제1 입력이 제1 대상의 목표 부위에 대한 터치 입력인 경우, 제1 입력에 대응하는 제1 미리 설정된 디스플레이 방식은 터치 입력에 대응하는 목표 부위가 변형되는 것을 포함할 수 있다.
일 실시예에서, 제1 입력에 응답하여, 제1 입력에 대응하는 제1 미리 설정된 디스플레이 방식에 따라 영상 통화 인터페이스에서 제1 대상을 표시하는 것은, 영상 통화 인터페이스에서 목표 부위가 변형된 제1 대상을 표시하는 것을 포함할 수 있다.
예시적으로, 제1 사용자에 대응하는 제1 대상은 대상 a이고, 전자 기기는 대상 a의 얼굴 위치 N1에 대한 제2 사용자의 드래그 입력을 수신하며, 대상 a의 얼굴이 바로 목표 부위이다. 상기 드래그 입력에 응답하여 대상 a의 얼굴이 상응하게 변형될 수 있다.
이와 같이, 전자 기기는 영상 통화 대상의 목표 부위에 대한 사용자의 터치 입력을 수신하고, 상기 터치 입력에 응답하여 영상 통화 인터페이스에서 목표 부위가 변형된 영상 통화 대상을 표시하며, 영상 통화 대상과 재미있는 인터렉션을 구현하고, 영상 통화 과정에서 인터렉션 방식을 풍부할 수 있다.
일 실시예에서, 제1 입력은 제1 대상에 대한 제2 사용자의 드래그 입력, 클릭 입력, 더블 클릭 입력, 슬라이드 입력, 회전 입력 등 및 두 개 또는 그 이상의 입력의 조합을 더 포함할 수 있고, 구체적인 요구에 따라 서로 다른 제1 입력에 대응하는 디스플레이 방식을 설정할 수 있다.
예를 들어, 제1 입력이 제2 사용자가 제1 대상을 회전하는 것이면, 도 2에 도시된 바와 같이, 상기 제1 입력에 대응하는 제1 미리 설정된 디스플레이 방식은 제1 대상이 회전하는 것이다.
다른 예시에서, 제1 입력이 제2 사용자가 두 손가락으로 제1 대상을 길게 누르는 것이면, 상기 제1 입력에 대응하는 제1 미리 설정된 디스플레이 방식은 흔들리는 제1 대상을 표시하는 것을 포함할 수 있다.
또 다른 예시에서, 제1 입력은 제2 사용자가 두 손가락으로 제1 대상을 길게 누르는 것이고, 두 손가락을 동시에 반대 방향으로 이동하면, 상기 제1 입력에 대응하는 제1 미리 설정된 디스플레이 방식은 제1 대상이 확대되거나 축소되는 것을 포함할 수 있다.
설명해야 할 바로는, 제1 사용자가 영상 통화 인터페이스의 인터렉션 효과를 동기적으로 볼 수 있도록 하고 영상 통화 쌍방의 소통을 강화하기 위해, 제1 입력에 대응하는 제1 미리 설정된 디스플레이 방식에 따라 영상 통화 인터페이스에서 제1 대상을 표시하는 동시에, 제1 사용자에 대응하는 전자 기기의 영상 통화 인터페이스는 제1 미리 설정된 디스플레이 방식에 따라 제1 대상을 표시하여, 영상 통화 쌍방이 인터렉션 효과를 동시에 볼 수 있는 영상 통화 체험을 구현할 수 있다.
본 출원의 실시예에 따른 영상 통화의 인터렉션 방법에 따르면, 제1 사용자가 제2 사용자와 영상 통화를 하는 과정에서, 제2 사용자는 영상 통화 인터페이스에 표시된 제1 사용자에 대응하는 제1 대상에 대해 제1 입력을 할 수 있다. 전자 기기가 상기 제1 입력을 수신하면, 상기 제1 입력에 응답하여 제1 입력에 대응하는 제1 미리 설정된 디스플레이 방식에 따라 제1 대상을 표시할 수 있다. 예를 들어, 사용자는 영상 통화 인터페이스에 표시된 영상 통화 대상의 목표 부위에 대해 터치 조작을 할 수 있으며, 상기 터치 조작에 응답하여 인터페이스에 표시된 상기 영상 통화 대상의 목표 부위는 상응하게 변형될 수 있다. 이와 같이, 영상 통화 과정에서 사용자에게 다양한 인터렉션 방식을 제공할 수 있고, 사용자는 영상 통화 인터페이스에서 실시하는 조작들을 통해 영상 통화 대상의 영상 통화 인터페이스에서의 디스플레이 방식을 변경하여, 재미있는 인터렉션 효과를 구현하고, 사용자의 영상 통화 체험을 효과적으로 개선할 수 있다. 이하, 구체적인 실시예를 결부하여 상술한 S101과 S102를 상세하게 설명하기로 한다.
일 실시예에서, 영상 통화 과정에서 인터렉션 행위의 안정성을 보장하기 위해, S102에서 제1 입력에 응답하여, 제1 입력에 대응하는 제1 미리 설정된 디스플레이 방식에 따라 영상 통화 인터페이스에서 제1 대상을 표시하는 것은, 구체적으로 제1 입력의 행위 특징을 확인하고, 제1 입력의 행위 특징이 미리 설정된 행위 특징과 일치하는 경우, 제1 입력에 대응하는 제1 미리 설정된 디스플레이 방식에 따라 영상 통화 인터페이스에 제1 대상을 표시하는 것을 포함할 수 있다.
미리 설정된 행위 특징은 안정한 행위에 대응하는 행위 특징일 수 있다. 전자 기기가 제1 입력을 수신하면, 현재의 영상 통화 인터페이스에 대응하는 이미지를 저장하고, 해당 이미지를 검출, 식별하여 제1 입력에 대응하는 행위 특징을 확인하며, 제1 입력에 대응하는 행위 특징을 미리 설정된 행위 특징과 매칭할 수 있다. 제1 입력에 대응하는 행위 특징이 미리 설정된 행위 특징과 일치하는 경우, 제1 입력을 안전한 행위로 결정한다. 이때, 제1 입력에 대응하는 제1 미리 설정된 디스플레이 방식에 따라 제1 대상을 표시한다.
일 실시예에서, 안전한 행위는 비-프라이버시 부위에 대한 터치 입력을 포함할 수 있는데, 예를 들어 손, 머리, 어깨, 팔 등에 대한 터치 입력이다.
예시적으로, 제1 입력은 제1 대상의 어깨에 대한 제2 사용자의 터치 입력이다. 전자 기기는 상기 제1 입력을 수신한 후 상기 제1 입력의 행위 특징이 "어깨 터치"인 것으로 결정하고, 안전한 행위에 대응하는 행위 특징과 일치하므로, 영상 통화 인터페이스에서 어깨가 두드려진 제1 대상을 표시한다.
다른 실시예에서, 제1 입력의 행위 특징이 미리 설정된 행위 특징과 일치하지 않는 경우, 상기 방법은 제2 사용자에게 불안전한 행위를 중지하도록 알리기 위한 알림 메시지를 표시하는 것을 더 포함할 수 있다.
예시적으로, 제1 입력은 제1 대상의 가슴에 대한 제2 사용자의 터치 입력이고, 전자 기기가 상기 제1 입력을 수신하면, 상기 제1 입력의 행위 특징이 "가슴 터치", 즉 성추행 행위인 것으로 결정하고, 안전한 행위에 대응하는 행위 특징과 일치하지 않으므로 영상 통화 인터페이스에서 "불안전한 행위를 중지하십시오!"라는 알림 메시지를 표시하여 제2 사용자에게 경고할 수 있다.
이와 같이, 제1 입력의 행위 특징을 결정하고, 영상 통화 인터페이스에 미리 설정된 행위 특징과 일치하는 행위 특징에 대응하는 안전한 행위만을 표시함으로써, 미리 설정된 행위 특징과 일치하지 않는 행위 특징에 대응하는 행위(예컨대, 성추행 등)를 효과적으로 필터링할 수 있다. 이로써, 영상 통화 과정에서 인터렉션 행위의 안전성을 확보하여, 영상 통화의 안전성을 향상시킬 수 있다.
일 실시예에서, 영상 통화 인터페이스에는 인터렉션 컨트롤이 표시되어 있을 수 있으며, 제1 입력은 인터렉션 컨트롤에 대한 클릭 입력을 포함할 수 있다.
여기서, 인터렉션 컨트롤은 제1 대상과 인터렉션을 구현하기 위한 컨트롤일 수 있는데, 예를 들어 표정 컨트롤, 동작 컨트롤 등이다. 인터렉션 컨트롤은 제1 미리 설정된 디스플레이 방식에 대응한다.
상술한 실시예에서, 제1 입력이 인터렉션 컨트롤에 대한 클릭 입력인 경우, 제1 미리 설정된 디스플레이 방식은 미리 설정된 인터렉션 애니메이션을 포함할 수 있다. S102에서 제1 입력에 응답하여, 제1 입력에 대응하는 제1 미리 설정된 디스플레이 방식에 따라 영상 통화 인터페이스에서 제1 대상을 표시하는 것은, 제1 입력에 응답하여, 영상 통화 인터페이스에서 제1 대상과의 미리 설정된 인터렉션 애니메이션을 표시하는 것을 포함할 수 있다.
미리 설정된 인터렉션 애니메이션은 제1 대상에 대한 인터렉션 동작을 수행하는 애니메이션일 수 있는데, 예를 들어 제1 대상과 손잡는 애니메이션, 제1 대상의 딱밤을 때리는 애니메이션, 제1 대상의 어깨를 두드리는 애니메이션, 제1 대상의 얼굴을 주무르는 애니메이션 등이다.
일 예시에서, 제1 사용자는 대상 a에 대응한다. 도 4에 도시된 바와 같이, 영상 통화 인터페이스에는 "어깨 두드림"이라는 인터렉션 컨트롤이 표시되어 있다. 전자 기기가 인터렉션 컨트롤에 대한 제2 사용자의 클릭 입력을 수신하면, 상기 클릭 입력에 응답하여, 영상 통화 인터페이스에 작은 손이 대상 a의 어깨를 두드리는 애니메이션이 표시된다.
이와 같이, 사용자는 인터렉션 컨트롤을 클릭하기만 하면 영상 통화 대상과 인터렉션을 구현할 수 있어, 사용자의 조작 난이도를 간소화하는 동시에 영상 통화 쌍방의 친밀한 소통을 구현하고, 영상 통화 과정에서 인터렉션 방식을 더욱 풍부하게 한다.
일 실시예에서, 사용자의 영상 통화 과정에서의 인터렉션 체험을 향상시키기 위해, 제1 입력은 제1 대상을 영상 통화 인터페이스의 목표 구역으로 이동하는 제2 입력을 더 포함할 수 있다.
상술한 실시예에 있어서, S101에서 제1 사용자가 제2 사용자와 영상 통화를 하는 경우, 영상 통화 인터페이스에서 제1 사용자에 대응하는 제1 대상에 대한 제2 사용자의 제1 입력을 수신하는 것은, 제1 사용자가 제2 사용자와 영상 통화를 하는 경우, 영상 통화 인터페이스에서 제1 대상을 영상 통화 인터페이스의 목표 구역으로 이동하는 제2 사용자의 제2 입력을 수신하는 것을 포함할 수 있으며; S102에서 제1 입력에 응답하여, 제1 입력에 대응하는 제1 미리 설정된 디스플레이 방식에 따라 영상 통화 인터페이스에서 제1 대상을 표시하는 것은, 영상 통화 인터페이스의 목표 구역에서 제1 대상을 표시하는 것을 포함할 수 있다.
목표 구역은 제2 사용자가 영상 통화 인터페이스에서 선택한 임의의 구역일 수 있다. 제2 입력은 제2 사용자가 제1 대상을 목표 구역으로 이동하는 드래그 입력일 수 있다.
일 예시에서, 도 5에 도시된 바와 같이, 목표 구역은 구역 1이고, 제1 대상은 대상 a이다. 전자 기기는 제2 사용자가 대상 a를 구역 1로 이동하는 드래그 입력을 수신하면, 상기 드래그 입력에 응답하여 구역 1에서 대상 a를 표시한다.
일 실시예에서, 목표 구역이 제2 사용자에 대응하는 제2 대상을 포함하는 경우, 목표 구역에 제1 대상을 표시하는 것은, 목표 구역에 제1 대상과 제2 대상을 표시하는 것을 포함할 수 있다.
일 예시에서, 도 6에 도시된 바와 같이, 목표 구역은 구역 2이고, 제1 대상은 대상 a이며, 제2 대상은 대상b이고, 구역 2에는 대상 b가 표시되어 있다. 전자 기기는 제2 사용자가 대상 a를 구역 2로 이동하는 드래그 입력을 수신하면, 상기 드래그 입력에 응답하여, 구역 2에 대상 a와 대상 b를 표시한다.
이와 같이, 사용자는 영상 통화 인터페이스에서 영상 통화 대상에 대해 이동 조작하여 영상 통화 대상을 영상 통화 인터페이스의 임의의 구역으로 이동할 수 있는 한편, 영상 통화 대상을 자신이 위치하는 구역으로 이동하여 영상 통화 쌍방 간의 거리를 좁혀, 사용자에게 새로운 영상 통화 체험을 제공할 수 있다.
본 출원의 일부 실시예에서, 사용자가 비디오 재생 인터페이스를 잘못 터치하여 야기하는 일부 오작동을 피하기 위해, 영상 통화 인터페이스에는 제1 컨트롤 또는 미리 설정된 구역이 표시되어 있을 수 있다.
도 7은 본 출원에 따른 영상 통화의 인터렉션 방법의 다른 실시예의 흐름 모식도이다. 상기 영상 통화의 인터렉션 방법의 실행 주체는 적어도 하나의 스크린을 갖는 전자 기기일 수 있다. 도 7에 도시된 바와 같이, 본 출원의 실시예에 따른 영상 통화의 인터렉션 방법은 S701~S704를 포함할 수 있다.
제1 컨트롤 또는 미리 설정된 구역에 대한 제3 입력을 수신한다(S701).
여기서, 미리 설정된 구역은 구체적인 요구에 따라 설정할 수 있는데, 영상 통화 인터페이스의 임의의 구역일 수 있다. 제1 컨트롤과 미리 설정된 구역은 영상 통화 인터페이스의 "이동 모드"를 작동시키는 데 사용될 수 있으며, 해당 “이동 모드”에서, 제2 사용자는 제1 대상을 이동할 수 있다.
제3 입력은 제1 컨트롤 또는 미리 설정된 구역에 대한 제2 사용자의 클릭 입력, 슬라이드 입력, 더블 클릭 입력 등일 수 있다.
예를 들어, 도 8에 도시된 바와 같이, 제1 대상은 대상 a이고, 제1 컨트롤은 "이동 시작!" 컨트롤이며, 미리 설정된 구역은 구역 3이고, 제3 입력은 구역 3에 대한 제2 사용자의 슬라이드 입력이다. 전자 기기는 상기 슬라이드 입력을 수신하면, 영상 통화 인터페이스의 "이동 모드"를 작동시키고, 해당 "이동 모드"에서, 제2 사용자는 대상 a를 자유롭게 이동할 수 있다.
제3 입력에 응답하여 제2 컨트롤을 표시한다(S702).
제2 컨트롤은 도 9에 도시된 "드래그 도구"와 같이 제1 대상을 이동하기 위한 도구일 수 있다.
제2 사용자가 제2 컨트롤을 통해 제1 대상을 영상 통화 인터페이스의 목표 구역으로 드래그하는 제4 입력을 수신한다(S703).
목표 구역은 제2 사용자가 영상 통화 인터페이스에서 선택한 임의의 구역일 수 있다. 제4 입력은 제2 컨트롤에 대한 제2 사용자의 드래그 입력, 슬라이드 입력, 드래그 입력 등일 수 있다.
일 예시에서, 제2 사용자는 제2 컨트롤을 제1 대상의 임의의 신체 부위로 이동한 후, 제2 컨트롤을 드래그함으로써 제1 대상을 목표 구역으로 드래그할 수 있다.
예를 들어, 도 9에 도시된 바와 같이, 제1 대상은 대상 a이고, 제2 컨트롤은 "드래그 도구"이며, 목표 구역은 구역 4이다. 제2 사용자는 "드래그 도구"를 대상 a의 머리 위치로 이동한 후, "드래그 도구"에 대한 드래그 입력을 통해 대상 a를 구역 4로 드래그한다.
제4 입력에 응답하여, 목표 구역에서 제1 대상을 표시한다(S704).
도 9에 도시된 바와 같이, 제2 사용자가 "드래그 도구"를 통해 대상 a를 구역 4로 드래그하는 드래그 입력에 응답하여, 구역 4에서 대상 a를 표시한다.
이와 같이, 전자 기기는 제1 컨트롤 또는 미리 설정된 구역에 대한 사용자의 입력을 수신해야만 영상 통화 대상을 이동할 수 있기 때문에, 사용자가 비디오 재생 인터페이스를 잘못 터치하여 발생하는 오조작들(예를 들어, 사용자가 실수로 제1 대상을 비디오 재생 인터페이스의 모서리 구역으로 이동함)을 피할 수 있어, 사용자의 사용 체험감을 향상시킬 수 있다.
본 출원의 일부 실시예에서, 사용자는 영상 통화 인터페이스에서 영상 통화 대상의 디스플레이 방식을 바꿀 수 있을 뿐만 아니라, 사용자 자신에 대응하는 대상의 디스플레이 방식도 바꿀 수 있다. 본 출원의 실시예에 따른 영상 통화의 인터렉션 방법은 영상 통화 인터페이스에서 제2 사용자에 대응하는 제2 대상에 대한 제2 사용자의 제7 입력을 수신하는 단계; 제7 입력에 응답하여, 제7 입력에 대응하는 제2 미리 설정된 디스플레이 방식에 따라 영상 통화 인터페이스에서 제2 대상을 표시하는 단계;를 더 포함할 수 있다.
전자 기기는 영상 통화 인터페이스에서 제2 사용자에 대응하는 제2 대상에 대한 제2 사용자의 제7 입력을 수신한다. 제7 입력은 제2 대상에 대한 제2 사용자의 드래그 입력, 클릭 입력, 더블 클릭 입력, 슬라이드 입력 등, 및 두 개 또는 그 이상의 입력의 조합일 수 있다.
일 예시에서, 구체적인 요구에 따라 서로 다른 제7 입력에 대응하는 디스플레이 방식을 설정할 수 있다.
예를 들어, 제7 입력이 제2 사용자가 제2 대상을 더블 클릭하는 것인 경우, 상기 제7 입력에 대응하는 제2 미리 설정된 디스플레이 방식은 흔들리는 제2 대상을 표시하는 것을 포함할 수 있다.
또 예를 들어, 제7 입력이 제2 사용자가 두 손가락으로 제2 대상을 길게 누르고 두 손가락이 동시에 반대 방향으로 이동하는 것인 경우, 상기 제7 입력에 대응하는 제2 미리 설정된 디스플레이 방식은 제2 대상을 확대하거나 축소하는 것을 포함할 수 있다.
설명해야 할 바로는, 제1 사용자가 영상 통화 인터페이스의 인터렉션 효과를 동시에 볼 수 있도록 하고 영상 통화 쌍방의 소통을 강화하기 위해, 제7 입력에 대응하는 제2 미리 설정된 디스플레이 방식에 따라 영상 통화 인터페이스에서 제2 대상을 표시하는 한편, 제1 사용자에 대응하는 전자 기기의 영상 통화 인터페이스도 제2 미리 설정된 디스플레이 방식에 따라 제2 대상을 디스플레이할 수 있어, 영상 통화 쌍방이 동시에 인터렉션 효과를 보는 영상 통화 체험을 구현할 수 있다.
이와 같이, 사용자는 영상 통화 인터페이스에서 영상 통화 대상의 디스플레이 방식을 바꿀 수 있을 뿐만 아니라, 사용자 자신에 대응하는 대상의 디스플레이 방식도 바꿀 수 있어, 영상 통화 과정에서 인터렉션 기능을 더욱 풍부하게 하고, 사용자에게 전면적인 영상 통화 인터렉션 체험을 제공할 수 있다.
본 출원의 일부 실시예에서, 사용자의 체험감을 향상시키기 위해, 사용자는 영상 통화 배경을 자유롭게 바꿀 수 있으며, 영상 통화 인터페이스에는 제3 컨트롤과 제2 사용자에 대응하는 제2 대상이 표시되어 있을 수 있다
도 10은 본 출원에 따른 영상 통화의 인터렉션 방법의 또 다른 실시예의 흐름 모식도이다. 상기 영상 통화의 인터렉션 방법의 실행 주체는 적어도 하나의 스크린을 갖는 전자 기기일 수 있다. 도 10에 도시된 바와 같이, 본 출원의 실시예에 따른 영상 통화의 인터렉션 방법은 S1001~S1004를 포함할 수 있다.
제3 컨트롤에 대한 제2 사용자의 제5 입력을 수신한다(S1001).
제3 컨트롤은 영상 통화 배경을 바꾸기 위한 도구일 수 있으며, 제5 입력은 제3 컨트롤에 대한 제2 사용자의 클릭 입력, 더블 클릭 입력, 슬라이드 입력 등일 수 있다.
예를 들어, 도 11에 도시된 바와 같이, 제3 컨트롤은 "배경 교체" 컨트롤이며, 제5 입력은 "배경 교체" 컨트롤에 대한 제2 사용자의 더블 클릭 입력이다.
제5 입력에 응답하여 복수 개의 시나리오 정보를 표시한다(S1002).
여기서, 시나리오 정보는 제1 사용자의 현재의 영상 통화 배경, 제2 사용자의 현재의 영상 통화 배경, 미리 설정된 가상 시나리오 정보 중의 적어도 하나를 포함한다. 미리 설정된 가상 시나리오 정보는 구체적인 요구에 따라 설정될 수 있다.
일 실시예에서, 전자 기기는 카메라의 피사계 심도 효과와 360 피노라마 영상을 통해 제2 사용자의 현재의 영상 통화 배경을 직접 얻을 수 있으며, 상기 영상 통화 배경은 제2 사용자가 위치하는 실제 환경을 그대로 보여줄 수 있다. 또한, 전자 기기는 영상 통화 인터페이스에 표시된 제1 사용자의 현재의 영상 통화 배경을 직접 얻을 수 있다.
일 실시예에서, 미리 설정된 가상 시나리오 정보는 게임 시나리오 정보, 풍경 시나리오 정보 등을 포함할 수도 있고, 전자 기기에 로컬로 저장된 이미지 정보(예컨대, 앨범 내의 이미지 정보)를 포함할 수도 있다.
복수 개의 시나리오 정보에서 목표 시나리오 정보를 선택하는 제2 사용자의 제6 입력을 수신한다(S1003).
제6 입력은 인터페이스에 표시된 복수 개의 시나리오 정보 중의 목표 시나리오 정보에 대한 제2 사용자의 클릭 입력, 더블 클릭 입력, 슬라이드 입력 등일 수 있다.
예를 들어, 도 11에 도시된 바와 같이, "배경 교체" 컨트롤에 대한 제2 사용자의 더블 클릭 입력에 응답하여, 영상 통화 인터페이스에 시나리오 1~시나리오 4를 표시한다. 제6 입력은 시나리오 2에 대한 제2 사용자의 클릭 입력이다.
제6 입력에 응답하여, 목표 시나리오 정보에 대응하는 시나리오에서 제2 대상을 표시한다(S1004).
도 11에 도시된 바와 같이, 제2 대상은 대상 b이다. 전자 기기는 시나리오 2에 대한 제2 사용자의 클릭 입력에 응답하여, 대상 b의 영상 통화 배경을 시나리오 2로 교체하고, 시나리오 2에서 대상 b를 표시한다.
이와 같이, 전자 기기가 복수 개의 시나리오 정보에서 목표 시나리오 정보를 선택하는 사용자의 입력을 수신하면, 상기 입력에 응답하여 사용자의 영상 통화 배경을 목표 시나리오 정보로 교체할 수 있어, 사용자에게 영상 통화 과정에서 영상 통화 배경을 스스로 교체하는 기능을 제공하고, 사용자의 체험도를 향상시킬 수 있다.
일 실시예에서, 영상 통화 쌍방이 동일한 시나리오에 나타나는 인터렉션 효과를 구현하기 위해, 시나리오 정보에 대응하는 시나리오에서 제2 대상을 표시하는 것은, 목표 시나리오 정보에 대응하는 시나리오에서 제1 대상과 제2 대상을 표시하는 것을 포함할 수 있다.
일 예시에서, 도 12에 도시된 바와 같이, 제1 대상은 대상 a이며, 제2 대상은 대상 b이고, 비디오 재생 인터페이스에는 대상 a의 현재의 통화 배경인 "상대방 통화 시나리오", 대상 b의 현재의 통화 배경인 "현재의 통화 시나리오", "공원 시나리오", "슈퍼 메리 시나리오"가 표시되어 있다. 전자 기기는 "공원 시나리오"에 대한 제2 사용자의 클릭 입력을 수신하면, 대상 a와 대상 b의 영상 통화 배경을 "공원 시나리오"로 바꾸고, "공원 시나리오"에서 대상 a, b를 동시에 표시한다.
이와 같이, 사용자는 목표 시나리오 정보에 대응하는 시나리오를 영상 통화 쌍방의 공유 시나리오로 선택할 수 있다. 영상 통화 쌍방은 상기 공유 시나리오에 동시에 나타날 수 있어, 영상 통화 쌍방이 얼굴을 맞대고 소통하는 영상 통화 체험을 모의할 수 있다. 이러한 혁신적인 인터렉션 방식을 통해, 영상 통화 쌍방의 친밀도를 강화시킬 수 있다.
일 실시예에서, 인터렉션 방식의 재미성을 더욱 높이기 위해, 상기 방법은 목표 시나리오 정보가 게임 시나리오 정보인 경우, 제1 대상과 제2 대상이 미리 설정된 게임 동작을 실행하도록 제어하는 것을 더 포함할 수 있다.
일 예시에서, 목표 시나리오 정보가 게임 시나리오 정보인 경우, 영상 통화 인터페이스는 게임 모드를 작동할 수 있다. 상기 게임 모드에서, 영상 통화 인터페이스는 게임 컨트롤을 표시할 수 있고, 제1 사용자와 제2 사용자는 게임 컨트롤을 조작함으로써 제1 대상과 제2 대상이 미리 설정된 게임 동작을 실행하도록 제어하고, 영상 통화 인터페이스에 대응하는 게임 효과를 표시할 수 있다. 예를 들어, 제2 사용자가 게임 컨트롤에 대한 조작을 통해 제2 대상이 암기를 발사하여 제1 대상을 맞히면, 제1 대상은 쓰러지는 동작을 할 수 있고, 맞은 위치에는 상처 효과가 나타낼 수 있다.
상술한 실시예에서, 전자 기기는 게임 모드 하의 제1 대상과 제2 대상의 인터렉션 과정의 비디오를 동기적으로 녹화하고, 짧은 비디오를 생성하여 저장하거나 공유할 수 있다.
이와 같이, 전자 기기가 게임 시나리오 정보를 선택하는 사용자의 입력을 수신하면, 상기 입력에 응답하여 영상 통화 인터페이스의 게임 모드를 작동할 수 있다. 상기 게임 모드에서, 제1 대상과 제2 대상이 미리 설정된 게임 동작을 실행하도록 제어하고, 영상 통화와 게임을 효과적으로 결합할 수 있다. 이러한 재미있는 인터렉션 방식을 통해, 사용자에게 새로운 영상 통화 체험을 제공할 수 있다.
설명해야 할 바로는, 본 출원의 실시예에 따른 전자 기기는 단일 스크린, 이중 스크린, 다중 스크린, 폴드 스크린, 신축 스크린 등일 수 있으나, 여기서는 이를 한정하지 않는다.
본 출원의 일부 실시예에서, 전자 기기가 제1 스크린과 제2 스크린을 포함하는 경우, 제1 입력에 대응하는 제1 미리 설정된 디스플레이 방식에 따라 영상 통화 인터페이스에서 제1 대상을 표시하는 것은, 제1 미리 설정된 디스플레이 방식에 따라 제1 스크린에서 제1 대상을 표시하는 것을 포함할 수 있다.
일 예시에서, 도 13에 도시된 바와 같이, 전자 기기는 제1 스크린(1301)과 제2 스크린(1302)을 포함한다. 도 14에 도시된 바와 같이, 1301에는 제1 대상, 즉 대상 a가 표시되어 있고, 1302에는 제2 사용자에 대응하는 제2 대상, 즉 대상 b가 표시되어 있다. 전자 기기가 대상 a의 얼굴 위치 N1에 대한 제2 사용자의 드래그 입력을 수신하면, 상기 드래그 입력에 응답하여 1301에서 얼굴이 대응하게 변형된 대상 a를 표시할 수 있다.
이와 같이, 전자 기기가 하나 이상의 스크린을 포함하는 경우, 영상 통화 쌍방은 각각 두 개의 스크린에 표시될 수 있으며, 사용자는 영상 통화 대상이 표시되어 있는 스크린에서 터치 조작들을 실행함으로써, 영상 통화 대상의 영상 통화 인터페이스에서의 디스플레이 방식을 바꾸고, 재미있는 인터렉션 효과를 구현하며, 사용자의 영상 통화 체험을 효과적으로 개선할 수 있다.
설명해야 할 바로는, 본 출원의 실시예에 따른 영상 통화의 인터렉션 방법에서, 실행 주체는 적어도 하나의 스크린을 갖는 전자 기기일 수도 있고, 영상 통화의 인터렉션 장치 또는 상기 영상 통화의 인터렉션 장치에서 영상 통화를 실행하는 인터렉션 방법의 모듈일 수도 있다.
본 출원의 실시예에서는 영상 통화의 인터렉션 장치가 영상 통화를 실행하는 인터렉션 방법을 예로 하여 본 출원의 실시예에 따른 영상 통화의 인터렉션 장치를 설명하기로 한다.
도 15는 본 출원의 실시예에 따른 영상 통화의 인터렉션 장치의 구조 모식도이다. 상기 영상 통화의 인터렉션 장치는 적어도 하나의 스크린을 갖는 전자 기기에 적용될 수 있다.
도 15에 도시된 바와 같이, 본 출원에 따른 영상 통화의 인터렉션 장치(1500)는 수신 모듈(1501)과 디스플레이 모듈(1502)을 포함할 수 있다.
여기서, 수신 모듈(1501)은 제1 사용자가 제2 사용자와 영상 통화를 하는 경우, 영상 통화 인터페이스에서 제1 사용자에 대응하는 제1 대상에 대한 제2 사용자의 제1 입력을 수신하기 위한 것이다. 디스플레이 모듈(1502)은 제1 입력에 응답하여, 제1 입력에 대응하는 제1 미리 설정된 디스플레이 방식에 따라 영상 통화 인터페이스에서 제1 대상을 표시하기 위한 것이다. 여기서, 제1 입력은 제1 대상의 목표 부위에 대한 터치 입력을 포함하고, 제1 미리 설정된 디스플레이 방식은 터치 입력에 대응하는 목표 부위가 변형되는 것을 포함한다.
본 출원의 실시예에 따른 영상 통화의 인터렉션 장치에 따르면, 제1 사용자가 제2 사용자와 영상 통화를 하는 과정에서, 제2 사용자는 영상 통화 인터페이스에 표시된 제1 사용자에 대응하는 제1 대상에 대해 제1 입력을 할 수 있다. 전자 기기가 상기 제1 입력을 수신하면, 상기 제1 입력에 응답하여, 상기 제1 입력에 대응하는 제1 미리 설정된 디스플레이 방식에 따라 제1 대상을 표시할 수 있다. 예를 들어, 사용자는 영상 통화 인터페이스에 표시된 영상 통화 대상의 목표 부위에 대해 터치 조작을 할 수 있으며, 상기 터치 조작에 응답하여 인터페이스에 표시된 상기 영상 통화 대상의 목표 부위가 대응하게 변형될 수 있다. 이와 같이, 영상 통화 과정에서 사용자에게 다양한 인터렉션 방식을 제공할 수 있고, 사용자는 영상 통화 인터페이스에 실시하는 조작들을 통해 영상 통화 대상의 영상 통화 인터페이스에서의 디스플레이 방식을 바꾸고, 재미있는 인터렉션 효과를 구현하며, 사용자의 영상 통화 체험을 효과적으로 개선할 수 있다.
일부 실시예에서, 상기 장치는 제1 입력의 행위 특징을 결정하기 위한 결정 모듈(1503); 및 구체적으로 제1 입력의 행위 특징이 미리 설정된 행위 특징과 일치하는 경우, 제1 입력에 대응하는 제1 미리 설정된 디스플레이 방식에 따라 영상 통화 인터페이스에 제1 대상을 표시하기 위한 디스플레이 모듈(1502);을 더 포함한다.
이와 같이, 제1 입력의 행위 특징을 결정하고, 영상 통화 인터페이스에 미리 설정된 행위 특징과 일치하는 행위 특징에 대응하는 안전한 행위만을 표시함으로써, 미리 설정된 행위 특징과 일치하지 않는 행위 특징에 대응하는 행위(예컨대, 성추행)를 효과적으로 필터링할 수 있다. 이로써, 영상 통화 과정에서 인터렉션 행위의 안전성을 확보하여, 영상 통화의 안전성을 향상시킬 수 있다.
일부 실시예에서, 제1 입력은 제1 대상을 영상 통화 인터페이스의 목표 구역으로 이동하는 제2 입력을 더 포함하고, 디스플레이 모듈(1502)은 또한 목표 구역에 제1 대상을 디스플레이한다.
일부 실시예에서, 목표 구역이 제2 사용자에 대응하는 제2 대상을 포함하는 경우, 디스플레이 모듈(1502)은 구체적으로 목표 구역에 제1 대상과 제2 대상을 표시하기 위한 것이다.
이와 같이, 사용자는 영상 통화 인터페이스에서 영상 통화 대상을 이동 조작하여 영상 통화 대상을 영상 통화 인터페이스의 임의의 구역으로 이동할 수 있는 한편, 영상 통화 대상을 자신이 위치하는 구역으로 이동함으로써 영상 통화 쌍방 간의 거리를 좁혀 사용자에게 새로운 영상 통화 체험을 제공할 수도 있다.
일부 실시예에서, 영상 통화 인터페이스에는 제1 컨트롤 또는 미리 설정된 구역이 표시되어 있다. 수신 모듈(1501)은 또한 제1 컨트롤 또는 미리 설정된 구역에 대한 제3 입력을 수신하기 위한 것이다. 디스플레이 모듈(1502)은 또한 제3 입력에 응답하여 제2 컨트롤를 표시하기 위한 것이다. 수신 모듈(1501)은 또한 제2 컨트롤를 통해 제1 대상을 영상 통화 인터페이스의 목표 구역으로 드래그하는 제2 사용자의 제4 입력을 수신하기 위한 것이다. 디스플레이 모듈(1502)은 또한 제4 입력에 응답하여 목표 구역에 제1 대상을 표시하기 위한 것이다.
이와 같이, 전자 기기는 제1 컨트롤 또는 미리 설정된 구역에 대한 사용자의 입력을 수신해야만 영상 통화 대상을 이동할 수 있어, 사용자가 비디오 재생 인터페이스를 잘못 터치하여 발생하는 오조작들을 피할 수 있다. 예를 들어, 사용자가 실수로 제1 대상을 비디오 재생 인터페이스의 모서리 구역으로 이동하는 것을 방지하여, 사용자의 사용 체험감을 더욱 향상시킬 수 있다.
일부 실시예에서, 영상 통화 인터페이스에는 제3 컨트롤과 제2 사용자에 대응하는 제2 대상이 표시되어 있다. 수신 모듈(1501)은 또한 제3 컨트롤에 대한 제2 사용자의 제5 입력을 수신하기 위한 것이다. 디스플레이 모듈(1502)은 또한 제5 입력에 응답하여 복수 개의 시나리오 정보를 수신하기 위한 것이다. 수신 모듈(1501)은 또한 복수 개의 시나리오 정보에서 목표 시나리오 정보를 선택하는 제2 사용자의 제6 입력을 수신하기 위한 것이다. 디스플레이 모듈(1502)은 또한 제6 입력에 응답하여 목표 시나리오 정보에 대응하는 시나리오에서 제2 대상을 표시하기 위한 것이다.
이와 같이, 전자 기기가 복수 개의 시나리오 정보에서 목표 시나리오 정보를 선택하는 사용자의 입력을 수신하면, 상기 입력에 응답하여 사용자의 영상 통화 배경을 목표 시나리오 정보로 교체할 수 있어, 사용자에게 영상 통화 과정에서 영상 통화 배경을 스스로 교체하는 기능을 제공하고, 사용자의 체험도를 향상시킬 수 있다.
일부 실시예에서, 시나리오 정보는 제1 사용자의 현재의 영상 통화 배경, 제2 사용자의 현재의 영상 통화 배경, 미리 설정된 가상시나리오 정보 중의 적어도 하나를 포함한다. 디스플레이 모듈(1502)은 구체적으로 목표 시나리오 정보에 대응하는 시나리오에서 제1 대상과 제2 대상을 표시하기 위한 것이다.
이와 같이, 사용자는 시나리오 정보에 대응하는 시나리오를 영상 통화 쌍방의 공유 시나리오로 선택할 수 있고, 영상 통화 쌍방은 상기 공유 시나리오에 동시에 나타날 수 있어, 영상 통화 쌍방이 얼굴을 맞대며 소통하는 영상 통화 체험을 모의할 수 있다. 이러한 혁신적인 인터렉션 방식을 통해, 영상 통화 쌍방의 친밀도를 강화시킬 수 있다.
본 출원의 실시예에서 영상 통화의 인터렉션 장치는 장치일 수도 있고, 단말기의 부품, 집적 회로 또는 칩일 수도 있다. 상기 장치는 모바일 전자 기기일 수도 있고, 비모바일 전자 기기일 수도 있다. 예시적으로, 모바일 전자 기기는 스마트 폰, 태블릿PC, 노트북, 개인 휴대 정보 단말기, 차량용 전자 기기, 웨어러블 기기, 울트라 모바일 개인용 컴퓨터(ultra-mobile personal computer, UMPC), 넷북 또는 개인 휴대 정보 단말기(personal digital assistant, PDA) 등일 수 있고, 비모바일 전자 기기는 서버, 네트워크 접속 기반 파일 서버(Network Attached Storage, NAS), 개인용 컴퓨터(personal computer, PC), 텔레비전(television, TV), 현금 자동 입출금기 또는 셀프 서비스 등일 수 있으나, 본 출원의 실시예에서는 이를 구체적으로 제한하지 않는다.
본 출원의 실시예에서, 영상 통화의 인터렉션 장치는 운영체제를 가진 장치일 수 있다. 상기 운영체제는 안드로이드(Android) 운영체제, iOS 운영체제, 기타 가능한 운영체제일 수 있으나, 본 출원의 실시예에서는 이를 구체적으로 한정하지 않는다.
본 출원의 실시예에 따른 영상 통화의 인터렉션 장치는 도 1, 도 7, 도 10의 방법 실시예가 구현하는 각 과정을 구현할 수 있고, 반복을 피하기 위해 여기서 더 이상 설명하지 않는다.
선택적으로, 도 16은 본 출원의 실시예에 따른 전자 기기의 예시적인 하드웨어 구조 모식도이다. 도 16에 도시된 바와 같이, 전자 기기(1600)는 프로세서(1601), 메모리(1602), 메모리(1602)에 저장되고 프로세서(1601)에 의해 실행 가능한 프로그램 및 명령을 포함하며, 상기 프로그램 및 명령이 프로세서(1601)에 의해 실행되면, 상기 통화의 인터렉션 방법의 각 과정이 구현되고, 동일한 기술적 효과를 달성할 수 있으므로, 반복을 피하기 위해, 여기서 더 이상 설명하지 않는다.
설명해야 할 바로는, 본 출원의 실시예에 따른 전자 기기는 상기 모바일 전자 기기와 비모바일 전자 기기를 포함한다.
선택적으로, 도 17은 본 출원의 실시예에 따른 전자 기기의 다른 예시의 하드웨어 구조 모식도이다.
도 17에 도시된 바와 같이, 상기 전자 기기(1700)는 무선 주파수 유닛(1701), 네트워크 모듈(1702), 오디오 출력 유닛(1703), 입력 유닛(1704), 센서(1705), 디스플레이 유닛(1706), 사용자 입력 유닛(1707), 인터페이스 유닛(1708), 메모리(1709) 및 프로세서(1710) 등 부재를 포함하지만 이에 한정되지 않는다.
본 분야에 통상의 지식을 가진 자에게, 전자 기기(1700)는 각 부재에 전기를 제공하는 전원(예를 들어 배터리)을 더 포함할 수 있으며, 전원은 전원 관리 시스템을 통해 프로세서(1710)와 논리적으로 연결될 수 있음으로써 전원 관리 시스템을 통해 충전, 방전 및 전력 소모 관리 등의 기능을 관리할 수 있다는 것을 이해할 수 있다. 도 17에 표시된 전자 기기 구조는 전자 기기에 대한 제한을 구성하지 않고, 전자 기기는 도시된 것보다 더 많거나 작은 부재, 또는 일부 부재의 조합, 또는 상이한 부재의 배치를 포함할 수 있으나, 여기서 더 이상 설명하지 않는다.
여기서, 사용자 입력 유닛(1707)은 제1 사용자가 제2 사용자와 영상 통화를 하는 경우, 영상 통화 인터페이스에서 제1 사용자에 대응하는 제1 대상에 대한 제2 사용자의 제1 입력을 수신하기 위한 것이다. 디스플레이 유닛(1706)은 제1 입력에 응답하여, 제1 입력에 대응하는 제1 미리 설정된 디스플레이 방식에 따라 영상 통화 인터페이스에서 제1 대상을 표시하기 위한 것이다. 여기서, 제1 입력은 제1 대상의 목표 부위에 대한 터치 입력을 포함하며, 제1 미리 설정된 디스플레이 방식은 터치 입력에 대응하는 목표 부위가 변형되는 것을 포함한다.
본 출원의 실시예에서, 제1 사용자가 제2 사용자와 영상 통화를 하는 과정에서, 제2 사용자는 영상 통화 인터페이스에 표시된 제1 사용자에 대응하는 제1 대상에 대해 제1 입력을 할 수 있다. 전자 기기가 상기 제1 입력을 수신하면, 상기 제1 입력에 응답하여 제1 입력에 대응하는 제1 미리 설정된 디스플레이 방식에 따라 제1 대상을 표시할 수 있다. 예를 들어, 사용자는 영상 통화 인터페이스에 표시된 영상 통화 대상의 목표 부위에 대해 터치 조작을 할 수 있으며, 상기 터치 조작에 응답하여 인터페이스에 표시된 상기 영상 통화 대상의 목표 부위가 대응하게 변형될 수 있다. 이와 같이, 영상 통화 과정에서 사용자에게 다양한 인터렉션 방식을 제공할 수 있고, 사용자는 영상 통화 인터페이스에서 실시하는 조작들을 통해 영상 통화 대상의 영상 통화 인터페이스에서의 디스플레이 방식을 바꾸고, 재미있는 인터렉션 효과를 구현하며, 사용자의 영상 통화 체험감을 효과적으로 개선할 수 있다.
선택적으로, 프로세서(1710)는 제1 입력의 행위 특징을 결정하기 위한 것이다. 디스플레이 유닛(1706)은 구체적으로 제1 입력의 행위 특징이 미리 설정된 행위 특징과 일치하는 경우, 제1 입력에 대응하는 제1 미리 설정된 디스플레이 방식에 따라 영상 통화 인터페이스에서 제1 대상을 표시하기 위한 것이다.
이와 같이, 제1 입력의 행위 특징을 결정하고, 영상 통화 인터페이스에 미리 설정된 행위 특징과 일치하는 행위 특징에 대응하는 안전한 행위만을 표시함으로써, 미리 설정된 행위 특징과 일치하지 않는 행위 특징에 대응하는 행위(예컨대, 성추행)를 효과적으로 필터링할 수 있다. 이로써, 영상 통화 과정에서 인터렉션 행위의 안전성을 확보하여, 영상 통화의 안전성을 향상시킬 수 있다.
선택적으로, 제1 입력은 제1 대상을 영상 통화 인터페이스의 목표 구역으로 이동하는 제2 입력을 더 포함하고, 디스플레이 유닛(1706)은 또한 목표 구역에 제1 대상을 표시하기 위한 것이다.
선택적으로, 목표 구역이 제2 사용자에 대응하는 제2 대상을 포함하는 경우, 디스플레이 모듈(1706)은 구체적으로 목표 구역에 제1 대상과 제2 대상을 표시하기 위한 것이다.
이와 같이, 사용자는 영상 통화 인터페이스에서 영상 통화 대상을 이동 조작하여 영상 통화 대상을 영상 통화 인터페이스의 임의의 구역으로 이동할 수 있는 한편, 영상 통화 대상을 자신이 위치하는 구역으로 이동함으로써 영상 통화 쌍방 간의 거리를 좁혀 사용자에게 새로운 영상 통화 체험을 제공할 수도 있다.
선택적으로, 영상 통화 인터페이스에는 제1 컨트롤 또는 미리 설정된 구역이 표시되어 있다. 사용자 입력 유닛(1707)은 또한 제1 컨트롤 또는 미리 설정된 구역에 대한 제3 입력을 수신하기 위한 것이다. 디스플레이 모듈(1706)은 또한 제3 입력에 응답하여 제2 컨트롤을 표시하기 위한 것이다. 사용자 입력 유닛(1707)은 또한 제2 컨트롤를 통해 제1 대상을 영상 통화 인터페이스의 목표 구역으로 드래그하는 제2 사용자의 제4 입력을 수신하기 위한 것이다. 디스플레이 모듈(1706)은 또한 제4 입력에 응답하여 목표 구역에 제1 대상을 표시하기 위한 것이다.
이와 같이, 전자 기기는 제1 컨트롤 또는 미리 설정된 구역에 대한 사용자의 입력을 수신해야만 영상 통화 대상을 이동할 수 있어, 사용자가 비디오 재생 인터페이스를 잘못 터치하여 발생하는 오조작들을 피할 수 있다. 예를 들어, 사용자가 실수로 제1 대상을 비디오 재생 인터페이스의 모서리 구역으로 이동하는 것을 방지하여, 사용자의 사용 체험을 더욱 향상시킬 수 있다.
선택적으로, 영상 통화 인터페이스에는 제3 컨트롤과 제2 사용자에 대응하는 제2 대상이 표시되어 있다. 사용자 입력 유닛(1707)은 또한 제3 컨트롤에 대한 제2 사용자의 제5 입력을 수신하기 위한 것이다. 디스플레이 모듈(1706)은 또한 제5 입력에 응답하여 복수 개의 시나리오 정보를 수신하기 위한 것이다. 사용자 입력 유닛(1707)은 또한 복수 개의 시나리오 정보에서 목표 시나리오 정보를 선택하는 제2 사용자의 제6 입력을 수신하기 위한 것이다. 디스플레이 모듈(1706)은 또한 제6 입력에 응답하여 목표 시나리오 정보에 대응하는 시나리오에서 제2 대상을 표시하기 위한 것이다.
이와 같이, 전자 기기가 복수 개의 시나리오 정보에서 목표 시나리오 정보를 선택하는 사용자의 입력을 수신하면, 상기 입력에 응답하여 사용자의 영상 통화 배경을 목표 시나리오 정보로 교체할 수 있어, 사용자에게 영상 통화 과정에서 영상 통화 배경을 스스로 교체하는 기능을 제공하고, 사용자의 체험도를 향상시킬 수 있다.
선택적으로, 시나리오 정보는 제1 사용자의 현재의 영상 통화 배경, 제2 사용자의 현재의 영상 통화 배경, 미리 설정된 가상 시나리오 정보 중의 적어도 하나를 포함하며, 디스플레이 모듈(1706)은 구체적으로 목표 시나리오 정보에 대응하는 시나리오에서 제1 대상과 제2 대상을 표시하기 위한 것이다.
이와 같이, 사용자는 시나리오 정보에 대응하는 시나리오를 영상 통화 쌍방의 공유 시나리오로 선택할 수 있고, 영상 통화 쌍방이 상기 공유 시나리오에 동시에 나타날 수 있어, 영상 통화 쌍방이 얼굴을 맞대며 소통하는 영상 통화 체험을 모의할 수 있다. 이러한 혁신적인 인터렉션 방식을 통해, 영상 통화 쌍방의 친밀도를 강화시킬 수 있다.
본 발명의 실시예는 프로그램 및 명령이 저장되어 있는 판독 가능한 저장 매체를 더 제공한다. 상기 프로그램 및 명령이 프로세서에 의해 실행되면 상기 영상 통화의 인터렉션 방법의 각 과정이 구현되고, 동일한 기술적 효과를 달성할 수 있으므로, 반복을 피하기 위해, 여기서는 더 이상 설명하지 않는다.
여기서, 프로세서는 상기 실시예에 따른 전자 기기의 프로세서이다. 상기 판독 가능한 저장 매체는 컴퓨터 판독 가능한 저장 매체를 포함하며, 컴퓨터 판독 가능한 저장 매체의 예시는 비임시 컴퓨터 판독 가능한 저장 매체를 포함하고, 예를 들어 읽기 전용 메모리(Read-Only Memory, ROM), 랜덤 액세스 메모리(Random Access Memory, RAM), 디스크 또는 광디스크 등이 있다.
본 출원의 실시예는 프로세서 및 통신 인터페이스를 포함하는 칩을 더 제공하는 바, 상기 통신 인터페이스는 상기 프로세서와 결합되고, 상기 프로세서는 네트워크측 기기 프로그램 및 명령을 실행하여 상기 영상 통화의 인터렉션 방법 실시예의 각 과정을 구현하며, 동일한 기술적 효과를 달성할 수 있으므로, 반복을 피하기 위해, 여기서는 더 이상 설명하지 않는다.
본 출원의 실시예에서 언급된 칩은 시스템 레벨 칩, 시스템 칩, 칩 시스템 또는 시스템 온 칩이라고도 할 수 있음을 이해해야 한다.
본 명세서에서, "포함", "구비" 등 용어 또는 그 임의의 다른 변체는 배타적인 포함을 포괄하는 것을 의미한다. 따라서, 일련의 요소를 포함하는 과정, 방법, 물체 또는 장치는 이러한 요소를 포함할 뿐만 아니라 명확하게 나열하지 않은 다른 요소를 더 포함하거나, 이러한 과정, 방법, 물체 또는 장치의 고유 요소를 더 포함한다. 별도의 제한이 없는 한, 문구 "하나의 …를 포함"으로 한정된 요소는 해당 요소를 포함하는 과정, 방법, 물체 또는 장치에 다른 동일한 요소가 더 포함되는 것을 배제하지 않는다. 또한, 본 출원의 실시예의 방법 및 장치의 범위는 표시 또는 논의된 순서대로 기능을 실행하는 것에 제한되지 않으며, 관련된 기능에 따라 기본적인 동시 방식 또는 반대의 순서로 기능을 실행하는 것을 더 포함할 수 있다. 예를 들어, 설명된 순서와 다른 순서로 설명된 방법을 실행하기도 하며, 각 단계를 추가, 생략 또는 결합하기도 한다. 또한, 어떤 특정 예를 참조하여 설명된 기능은 다른 예에서 결합될 수 있다.
이상, 본 출원의 실시예에 따른 방법, 장치(시스템)와 컴퓨터 프로그램 제품의 흐름 모식도 및/또는 블록도를 참조하여 본 출원의 각 측면을 설명한다. 흐름 모식도 및/또는 블록도의 각 상자 및 흐름 모식도 및/또는 블록도의 각 상자의 조합은 컴퓨터 프로그램 명령에 의해 구현될 수 있음을 이해해야 한다. 이러한 컴퓨터 프로그램 명령은 일반 컴퓨터, 전용 컴퓨터 또는 기타 프로그래밍 가능한 데이터 처리 장치의 프로세서에 제공하여 컴퓨터 생성할 수 있어 컴퓨터 또는 기타 프로그래밍 가능한 데이터 처리 장치의 프로세서를 통해 실행되는 이러한 명령은 흐름 모식도 및/또는 블록도의 하나 또는 하나 이상의 블록에 지정된 기능/동작을 구현할 수 있도록 한다. 이 프로세서는 범용 프로세서, 전용 프로세서, 특수 어플리케이션 프로세서 또는 현장 프로그램밍 가능한 논리 회로일 수 있으나, 이에 제한되지 않는다. 블록도 및/또는 흐름 모식도의 각 상자 및 블록도 및/또는 흐름 모식도의 상자의 조합은 지정된 기능이나 동작을 실행하는 전용 하드웨어로 이루어질 수 있고, 전용 하드웨어나 컴퓨터 명령의 조합으로 이루어질 수 있다는 것을 이해할 수 있다.
전술한 실시형태에 대한 설명에 따르면, 해당 분야에서 통상의 지식을 가진 자는 소프트웨어 및 필수의 범용 하드웨어 플랫폼을 통해 상기 실시예에 따른 방법을 구현할 수 있음을 이해할 수 있을 것이다. 물론, 하드웨어를 통해 상기 실시예에 따른 방법을 구현할 수도 있으나, 많은 경우에서 전자가 더욱 바람직하다. 이를 기반하여에 기반하여, 본 발명의 기술 방안은 본질적으로 또는 기존 기술에 대해 기여하는 부분이 소프트웨어 제품인 것을 알 수 있다. 해당 컴퓨터 소프트웨어 제품은 저장 매체(예컨대 ROM/RAM, 디스크, 광디스크)에 저장되고, 단말기(휴대폰, 컴퓨터, 서버, 공조기 또는 네트워크 기기 등)가 본 발명의 각 실시예에 따른 방법을 실행하도록 다수의 명령을 포함한다.
상술한 바와 같이, 첨부 도면을 통해 본 발명의 실시예에 대해 설명하였으나, 본 발명은 전술한 구체적인 실시형태에 한정되지 않는다. 전술한 구체적인 실시형태는 예시적인 것일 뿐, 한정적인 것이 아니다. 해당 분야에서 통상의 지식을 가진 자라면 본 발명의 요지 및 청구의 범위를 벗어나지 않고 많은 실시형태를 구현할 수도 있는데, 이는 모두 본 발명의 보호 범위에 속한다.

Claims (19)

  1. 적어도 하나의 스크린을 갖는 전자 기기에 적용되고,
    제1 사용자가 제2 사용자와 영상 통화를 하는 경우, 영상 통화 인터페이스에서 상기 제1 사용자에 대응하는 제1 대상에 대한 제2 사용자의 제1 입력을 수신하는 단계;
    상기 제1 입력에 응답하여, 상기 제1 입력에 대응하는 제1 미리 설정된 디스플레이 방식에 따라 상기 영상 통화 인터페이스에서 상기 제1 대상을 표시하는 바, 상기 제1 입력은 상기 제1 대상의 목표 부위에 대한 터치 입력을 포함하며, 상기 제1 미리 설정된 디스플레이 방식은 상기 터치 입력에 대응하는 상기 목표 부위가 변형되는 것을 포함하는 단계;를 포함하는 영상 통화의 인터렉션 방법.
  2. 제1항에 있어서,
    상기 제1 입력에 응답하여, 상기 제1 입력에 대응하는 제1 미리 설정된 디스플레이 방식에 따라 상기 영상 통화 인터페이스에서 상기 제1 대상을 표시하는 상기 단계는,
    상기 제1 입력의 행위 특징을 결정하는 단계;
    상기 제1 입력의 행위 특징이 미리 설정된 행위 특징과 일치하는 경우, 상기 제1 입력에 대응하는 제1 미리 설정된 디스플레이 방식에 따라 상기 영상 통화 인터페이스에서 상기 제1 대상을 표시하는 단계를 포함하는 방법.
  3. 제1항에 있어서,
    상기 제1 입력은 상기 제1 대상을 상기 영상 통화 인터페이스의 목표 구역으로 이동하는 제2 입력을 더 포함하며, 상기 제1 미리 설정된 디스플레이 방식에 따라 상기 영상 통화 인터페이스에서 상기 제1 대상을 표시하는 상기 단계는,
    상기 목표 구역에 상기 제1 대상을 표시하는 단계를 포함하는 방법.
  4. 제3항에 있어서,
    상기 목표 구역이 상기 제2 사용자에 대응하는 제2 대상을 포함하는 경우, 상기 목표 구역에 상기 제1 대상을 표시하는 상기 단계는
    상기 목표 구역에 상기 제1 대상과 상기 제2 대상을 표시하는 단계를 포함하는 방법.
  5. 제1항에 있어서,
    상기 영상 통화 인터페이스에는 제1 컨트롤 또는 미리 설정된 구역이 표시되어 있고,
    상기 제1 컨트롤 또는 미리 설정된 구역에 대한 제3 입력을 수신하는 단계;
    상기 제3 입력에 응답하여 제2 컨트롤을 표시하는 단계;
    상기 제2 사용자가 상기 제2 컨트롤을 통해 상기 제1 대상을 상기 영상 통화 인터페이스의 목표 구역으로 드래그하는 제4 입력을 수신하는 단계;
    상기 제4 입력에 응답하여 상기 목표 구역에 상기 제1 대상을 표시하는 단계;를 더 포함하는 방법.
  6. 제1항에 있어서,
    상기 영상 통화 인터페이스에는 제3 컨트롤과 상기 제2 사용자에 대응하는 제2 대상이 표시되어 있으며,
    상기 제3 컨트롤에 대한 상기 제2 사용자의 제5 입력을 수신하는 단계;
    상기 제5 입력에 응답하여 복수 개의 시나리오 정보를 표시하는 단계;
    상기 복수 개의 시나리오 정보에서 목표 시나리오 정보를 선택하는 상기 제2 사용자의 제6 입력을 수신하는 단계;
    상기 제6 입력에 응답하여 상기 목표 시나리오 정보에 대응하는 시나리오에서 상기 제2 대상을 표시하는 단계;를 포함하는 방법.
  7. 제6항에 있어서,
    상기 시나리오 정보는 상기 제1 사용자의 현재의 영상 통화 배경, 상기 제2 사용자의 현재의 영상 통화 배경, 미리 설정된 가상 시나리오 정보 중의 적어도 하나를 포함하고, 상기 목표 시나리오 정보에 대응하는 시나리오에서 상기 제2 대상을 표시하는 상기 단계는,
    상기 목표 시나리오 정보에 대응하는 시나리오에서 상기 제1 대상과 상기 제2 대상을 표시하는 단계를 포함하는 방법.
  8. 적어도 하나의 스크린을 갖는 전자 기기에 적용되고,
    제1 사용자가 제2 사용자와 영상 통화를 하는 경우, 영상 통화 인터페이스에서 상기 제1 사용자에 대응하는 제1 대상에 대한 제2 사용자의 제1 입력을 수신하기 위한 수신 모듈;
    상기 제1 입력에 응답하여, 상기 제1 입력에 대응하는 제1 미리 설정된 디스플레이 방식에 따라 상기 영상 통화 인터페이스에서 상기 제1 대상을 표시하는 바, 상기 제1 입력은 상기 제1 대상의 목표 부위에 대한 터치 입력을 포함하고, 상기 제1 미리 설정된 디스플레이 방식은 상기 터치 입력에 대응하는 상기 목표 부위가 변형되는 것을 포함하는 디스플레이 모듈;을 포함하는 영상 통화의 인터렉션 장치.
  9. 제8항에 있어서,
    상기 제1 입력의 행위 특징을 결정하기 위한 결정 모듈을 더 포함하며,
    상기 디스플레이 모듈은 구체적으로 상기 제1 입력의 행위 특징이 미리 설정된 행위 특징과 일치하는 경우, 상기 제1 입력에 대응하는 제1 미리 설정된 디스플레이 방식에 따라 상기 영상 통화 인터페이스에서 상기 제1 대상을 표시하는 장치.
  10. 제8항에 있어서,
    상기 제1 입력은 상기 제1 대상을 상기 영상 통화 인터페이스의 목표 구역으로 이동하는 제2 입력을 더 포함하고,
    상기 디스플레이 모듈은 또한 상기 목표 구역에 상기 제1 대상을 표시하는 장치.
  11. 제10항에 있어서,
    상기 목표 구역이 상기 제2 사용자에 대응하는 제2 대상을 포함하는 경우,
    상기 디스플레이 모듈은 구체적으로 상기 목표 구역에 상기 제1 대상과 상기 제2 대상을 표시하는 장치.
  12. 제8항에 있어서,
    상기 영상 통화 인터페이스에는 제1 컨트롤 또는 미리 설정된 구역이 표시되어 있고;
    상기 수신 모듈은 또한 상기 제1 컨트롤 또는 미리 설정된 구역에 대한 제3 입력을 수신하기 위한 것이며;
    상기 디스플레이 모듈은 또한 상기 제3 입력에 응답하여 제2 컨트롤을 표시하기 위한 것이고;
    상기 수신 모듈은 또한 상기 제2 컨트롤을 통해 상기 제1 대상을 상기 영상 통화 인터페이스의 목표 구역으로 드래그하는 상기 제2 사용자의 제4 입력을 수신하기 위한 것이며;
    상기 디스플레이 모듈은 또한 상기 제4 입력에 응답하여 상기 목표 구역에 상기 제1 대상을 표시하기 위한 것인 장치.
  13. 제8항에 있어서,
    상기 영상 통화 인터페이스에는 제3 컨트롤과 상기 제2 사용자에 대응하는 제2 대상이 표시되어 있고;
    상기 수신 모듈은 또한 상기 제3 컨트롤에 대한 상기 제2 사용자의 제5 입력을 수신하기 위한 것이며;
    상기 디스플레이 모듈은 또한 상기 제5 입력에 응답하여 복수 개의 시나리오 정보를 표시하기 위한 것이고;
    상기 수신 모듈은 또한 상기 복수 개의 시나리오 정보에서 목표 시나리오 정보를 선택하는 상기 제2 사용자의 제6 입력을 수신하기 위한 것이며;
    상기 디스플레이 모듈은 또한 상기 제6 입력에 응답하여 상기 목표 시나리오 정보에 대응하는 시나리오에서 상기 제2 대상을 표시하기 위한 것인 장치.
  14. 제13항에 있어서,
    상기 시나리오 정보는 상기 제1 사용자의 현재의 영상 통화 배경, 상기 제2 사용자의 현재의 영상 통화 배경, 미리 설정된 가상 시나리오 정보 중의 적어도 하나를 포함하고;
    상기 디스플레이 모듈은 구체적으로 상기 목표 시나리오 정보에 대응하는 시나리오에서 상기 제1 대상과 상기 제2 대상을 표시하기 위한 것인 장치.
  15. 프로세서, 메모리 및 상기 메모리에 저장되고 상기 프로세서에 의해 실행 가능한 컴퓨터 프로그램을 포함하며, 상기 컴퓨터 프로그램이 상기 프로세서에 의해 실행되면 제1항 내지 제7항 중 어느 한 항에 따른 영상 통화의 인터렉션 방법의 단계가 구현되는 전자기기.
  16. 제1항 내지 제7항 중 어느 한 항에 따른 영상 통화의 인터렉션 방법의 단계를 구현하도록 구성되는 전자기기.
  17. 프로세서에 의해 실행되면 제1항 내지 제7항 중 어느 한 항에 따른 영상 통화의 인터렉션 방법의 단계가 구현되는 컴퓨터 프로그램이 저장되어 있는 컴퓨터 판독 가능한 저장매체.
  18. 적어도 하나의 프로세서에 의해 실행되면 제1항 내지 제7항 중 어느 한 항에 따른 상기 영상 통화의 인터렉션 방법의 단계가 구현되는 비휘발성 저장 매체에 저장되어 있는 컴퓨터 프로그램 제품.
  19. 프로세서 및 통신 인터페이스를 포함하며, 상기 통신 인터페이스는 상기 프로세서와 결합되고, 상기 프로세서는 프로그램 또는 명령을 실행하여 제1항 내지 제7항 중 어느 한 항에 따른 영상 통화의 인터렉션 방법의 단계를 구현하는 칩.
KR1020237008016A 2020-10-27 2021-10-20 영상 통화의 인터렉션 방법과 장치 KR20230047172A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202011167360.2A CN112363658B (zh) 2020-10-27 2020-10-27 视频通话的互动方法和装置
CN202011167360.2 2020-10-27
PCT/CN2021/124942 WO2022089273A1 (zh) 2020-10-27 2021-10-20 视频通话的互动方法和装置

Publications (1)

Publication Number Publication Date
KR20230047172A true KR20230047172A (ko) 2023-04-06

Family

ID=74510961

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020237008016A KR20230047172A (ko) 2020-10-27 2021-10-20 영상 통화의 인터렉션 방법과 장치

Country Status (5)

Country Link
US (1) US20230259260A1 (ko)
EP (1) EP4220369A4 (ko)
KR (1) KR20230047172A (ko)
CN (1) CN112363658B (ko)
WO (1) WO2022089273A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112363658B (zh) * 2020-10-27 2022-08-12 维沃移动通信有限公司 视频通话的互动方法和装置
CN113286082B (zh) * 2021-05-19 2023-06-30 Oppo广东移动通信有限公司 目标对象跟踪方法、装置、电子设备及存储介质
CN115396390A (zh) * 2021-05-25 2022-11-25 Oppo广东移动通信有限公司 基于视频聊天的互动方法、系统、装置及电子设备

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101449751B1 (ko) * 2008-03-27 2014-10-13 주식회사 케이티 영상 통화 중 터치 피드백 제공 기능을 구비한 이동 단말기및 영상 통화 중 터치 피드백 제공 방법
US9245177B2 (en) * 2010-06-02 2016-01-26 Microsoft Technology Licensing, Llc Limiting avatar gesture display
WO2012007034A1 (en) * 2010-07-13 2012-01-19 Nokia Corporation Sending and receiving information
US8730294B2 (en) * 2010-10-05 2014-05-20 At&T Intellectual Property I, Lp Internet protocol television audio and video calling
US8767034B2 (en) * 2011-12-01 2014-07-01 Tangome, Inc. Augmenting a video conference
KR101978219B1 (ko) * 2013-03-15 2019-05-14 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
CN105554429A (zh) * 2015-11-19 2016-05-04 掌赢信息科技(上海)有限公司 一种视频通话显示方法及视频通话设备
CN105872438A (zh) * 2015-12-15 2016-08-17 乐视致新电子科技(天津)有限公司 一种视频通话方法、装置及终端
CN106067960A (zh) * 2016-06-20 2016-11-02 努比亚技术有限公司 一种处理视频数据的移动终端和方法
CN107071330A (zh) * 2017-02-28 2017-08-18 维沃移动通信有限公司 一种视频通话互动的方法及移动终端
CN107197194A (zh) * 2017-06-27 2017-09-22 维沃移动通信有限公司 一种视频通话方法及移动终端
CN107529096A (zh) * 2017-09-11 2017-12-29 广东欧珀移动通信有限公司 图像处理方法及装置
CN108259810A (zh) * 2018-03-29 2018-07-06 上海掌门科技有限公司 一种视频通话的方法、设备和计算机存储介质
US10375313B1 (en) * 2018-05-07 2019-08-06 Apple Inc. Creative camera
CN109873971A (zh) * 2019-02-27 2019-06-11 上海游卉网络科技有限公司 一种美妆通话系统及其方法
CN109862434A (zh) * 2019-02-27 2019-06-07 上海游卉网络科技有限公司 一种美妆通话系统及其方法
US20200359893A1 (en) * 2019-05-15 2020-11-19 Rollins Enterprises, Llc. Virtual consultation methods
CN111010526A (zh) * 2019-11-11 2020-04-14 珠海格力电器股份有限公司 一种视频通讯中的互动方法及装置
CN112363658B (zh) * 2020-10-27 2022-08-12 维沃移动通信有限公司 视频通话的互动方法和装置

Also Published As

Publication number Publication date
WO2022089273A1 (zh) 2022-05-05
US20230259260A1 (en) 2023-08-17
EP4220369A1 (en) 2023-08-02
CN112363658B (zh) 2022-08-12
EP4220369A4 (en) 2024-03-20
CN112363658A (zh) 2021-02-12

Similar Documents

Publication Publication Date Title
US11431784B2 (en) File transfer display control method and apparatus, and corresponding terminal
US11833426B2 (en) Virtual object control method and related apparatus
KR20230047172A (ko) 영상 통화의 인터렉션 방법과 장치
US11684858B2 (en) Supplemental casting control with direction and magnitude
EP3835933A1 (en) Product browsing method and apparatus, device and storage medium
US20160147411A1 (en) Method for managing task on terminal device, and terminal device
CN106201171B (zh) 一种分屏显示方法及电子设备
WO2015188614A1 (zh) 操作虚拟世界里的电脑和手机的方法、装置以及使用其的眼镜
CN110663018A (zh) 多显示器设备中的应用启动
CN109260713B (zh) 虚拟对象远程协助操作方法及装置、存储介质、电子设备
WO2018126957A1 (zh) 显示虚拟现实画面的方法和虚拟现实设备
US9495064B2 (en) Information processing method and electronic device
US10606447B2 (en) Method and apparatus for interface presentation, method and apparatus for user interface interaction, and computer readable storage medium
CN111760272B (zh) 游戏信息显示方法及装置、计算机存储介质、电子设备
WO2018000606A1 (zh) 一种虚拟现实交互界面的切换方法和电子设备
CN109416638B (zh) 可定制的紧凑叠加窗口
WO2022247318A1 (zh) 一种游戏界面显示的方法、装置、设备及介质
JP2020046983A (ja) プログラム、情報処理装置、および方法
EP3521987A1 (en) Method and device for displaying page, graphical user interface, and mobile terminal
CN113350801A (zh) 模型处理方法、装置、存储介质及计算机设备
CN209388620U (zh) 一种展示设备
CN114416234B (zh) 一种页面切换方法、装置、计算机设备及存储介质
JP7497908B2 (ja) 情報表示方法、装置、端末、及びコンピュータプログラム
CN117076265A (zh) 进程指示方法和装置
CN113680051A (zh) 游戏的控制方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A201 Request for examination