CN108228120A - 一种ar场景下的多屏联动方法和系统 - Google Patents

一种ar场景下的多屏联动方法和系统 Download PDF

Info

Publication number
CN108228120A
CN108228120A CN201611147184.XA CN201611147184A CN108228120A CN 108228120 A CN108228120 A CN 108228120A CN 201611147184 A CN201611147184 A CN 201611147184A CN 108228120 A CN108228120 A CN 108228120A
Authority
CN
China
Prior art keywords
terminal
markers
scenes
resource object
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201611147184.XA
Other languages
English (en)
Inventor
刘克青
张文浩
李立博
周芝芝
邓泽龙
王学禹
张梦成
杨锡坤
王质蕙
杨超
冯舒娅
杨话梅
徐婧
李昕
张方纪
肖潇
刘希呈
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201611147184.XA priority Critical patent/CN108228120A/zh
Priority to PCT/CN2017/111615 priority patent/WO2018107941A1/zh
Publication of CN108228120A publication Critical patent/CN108228120A/zh
Priority to US16/374,559 priority patent/US10768881B2/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10712Fixed beam scanning
    • G06K7/10722Photodetector array or CCD scanning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1408Methods for optical code recognition the method being specifically adapted for the type of code
    • G06K7/14172D bar codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/225Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种AR场景下的多屏联动方法和系统,用于多个终端在AR场景下的多屏联动。为解决上述技术问题,本发明实施例提供以下技术方案:本发明实施例提供一种AR场景下的多屏联动方法,包括:所述AR场景下的多屏联动方法应用于AR场景下的多屏联动系统,所述AR场景下的多屏联动系统包括:建立有通信连接的第一终端和第二终端,所述方法包括:所述第一终端显示所述AR场景中的资源对象,所述资源对象中嵌入有AR标记物;在所述第一终端显示所述资源对象的过程中,所述第二终端通过所述通信连接从所述第一终端获取到所述资源对象中嵌入的所述AR标记物,以及所述第二终端根据所述AR标记物显示所述AR场景中的AR效果。

Description

一种AR场景下的多屏联动方法和系统
技术领域
本发明涉及计算机技术领域,尤其涉及一种AR场景下的多屏联动方法和系统。
背景技术
增强现实(Augmented Reality,AR)是一种实时地计算摄影机影像的位置及角度并加上相应图像、视频、3D模型的技术,这种技术的目标是在屏幕上把虚拟世界套在现实世界并进行互动。随着随身电子产品运算能力的提升,AR的用途将会越来越广。
现有技术中在AR场景下,用户借助键盘、鼠标等设备输入数据,用户输入数据后AR头戴设备收集用户数据,并利用设备屏幕显示播放效果,现有技术中只限于一个用户使用AR头盔设备进行个人服务,而无法实现AR场景下多个终端之间的多屏幕联动。
发明内容
本发明实施例提供了一种AR场景下的多屏联动方法和系统,用于多个终端在AR场景下的多屏联动。
为解决上述技术问题,本发明实施例提供以下技术方案:
第一方面,本发明实施例提供一种AR场景下的多屏联动方法,所述AR场景下的多屏联动方法应用于AR场景下的多屏联动系统,所述AR场景下的多屏联动系统包括:建立有通信连接的第一终端和第二终端,所述方法包括:
所述第一终端显示所述AR场景中的资源对象,所述资源对象中嵌入有AR标记物;
在所述第一终端显示所述资源对象的过程中,所述第二终端通过所述通信连接从所述第一终端获取到所述资源对象中嵌入的所述AR标记物;
所述第二终端根据所述AR标记物显示所述AR场景中的AR效果。
第二方面,本发明实施例还提供一种AR场景下的多屏联动系统,所述AR场景下的多屏联动系统包括:建立有通信连接的第一终端和第二终端,所述系统包括:
所述第一终端,用于显示所述AR场景中的资源对象,所述资源对象中嵌入有AR标记物;
所述第二终端,用于在所述第一终端显示所述资源对象的过程中,通过所述通信连接从所述第一终端获取到所述资源对象中嵌入的所述AR标记物,以及根据所述AR标记物显示所述AR场景中的AR效果。
从以上技术方案可以看出,本发明实施例具有以下优点:
在本发明实施例中,AR场景下的多屏联动系统包括:建立有通信连接的第一终端和第二终端,第一终端在资源对象中嵌入有AR标记物,该AR标记物在第一终端的屏幕上显示,在第一终端显示资源对象的过程中,第二终端通过通信连接从第一终端获取到资源对象中嵌入的AR标记物,从而第二终端根据AR标记物显示AR场景中的AR效果。本发明实施例中第二终端上显示的AR效果由第一终端中显示的AR标记物来触发,因此本发明实施例中可以实现第一终端的屏幕和第二终端的屏幕之间的多屏联动,满足用户对AR场景下多屏幕联动的需求。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的技术人员来讲,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种AR场景下的多屏联动方法的流程方框示意图;
图2为本发明实施例提供的AR场景下的AR效果的多屏联动流程示意图;
图3为本发明实施例提供的一种AR场景下的多屏联动系统的组成结构示意图;
图4为本发明实施例提供的AR场景下的多屏联动方法中第一终端或第二终端的组成结构示意图。
具体实施方式
本发明实施例提供了一种AR场景下的多屏联动方法和系统,用于多个终端在AR场景下的多屏联动。
为使得本发明的发明目的、特征、优点能够更加的明显和易懂,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,下面所描述的实施例仅仅是本发明一部分实施例,而非全部实施例。基于本发明中的实施例,本领域的技术人员所获得的所有其他实施例,都属于本发明保护的范围。
本发明的说明书和权利要求书及上述附图中的术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,以便包含一系列单元的过程、方法、系统、产品或设备不必限于那些单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它单元。
本发明实施例提供的AR场景下的多屏联动方法可以应用于AR场景下的多屏联动系统,该AR场景下的多屏联动系统包括:建立有通信连接的第一终端和第二终端,可以理解的是,本发明实施例提供的多屏联动系统中包括的是两种类型的终端,分别定义为第一终端和第二终端,不限定的是,本发明实施例中可以包括更多的终端,例如3个或者更多的终端。多屏联动系统中第一终端是显示AR标记物的终端,第二终端是显示AR效果的终端,这两种终端之间可以实现在AR场景下的多屏联合互动,从而满足用户对多个终端在AR场景下的多屏联动需求。其中,本发明实施例中多屏联动系统中包括的终端可以移动终端或者个人电脑等终端设备,例如终端具体可以为AR头戴设备,该AR头戴设备属于移动终端的一种,其具备移动终端的各种特质,可以将上述移动终端的各种模块设置在AR头戴设备中,使AR头戴设备有完备的通信交互功能。
具体的,请参阅图1所示,本发明实施例提供的AR场景下的多屏联动方法应用于AR场景下的多屏联动系统,AR场景下的多屏联动系统包括:建立有通信连接的第一终端和第二终端,AR场景下的多屏联动方法包括如下步骤:
101、第一终端显示AR场景中的资源对象,资源对象中嵌入有AR标记物。
在本发明实施例中,多屏联动系统中的第一终端具有屏幕,该第一终端的屏幕上首先显示AR场景中的资源对象。其中,AR场景下的资源对象在第一终端的屏幕上显示,本发明实施例中AR场景具体可以指的是AR游戏场景,也可以指的是应用程序的AR操作场景,例如办公软件的AR应用操作场景、角色的AR应用操作场景等,又如该AR场景可以是AR动画播放场景。资源对象可以指的是多种实现对象或者角色对象,举例说明资源对象可以在AR场景下播放的动画资源,或者在AR游戏场景下由用户控制的角色对象,或者道具对象等,此处不做限定。本发明实施例中为了实现多屏联动,该资源对象中嵌入有AR标记物(marker),AR标记物可以是设置在资源对象中的一个AR标记,或者承载在资源对象上显示出来的一个AR标记,AR标记物是AR唤醒的标记物,常见有纹理独特易识别的图像、物品、二维码、道具等,AR标记物可以用来触发多屏联动下其他终端的AR效果。其中,AR效果指的是在AR场景下终端显示出来的AR资源播放效果,例如可以是动画播放效果,或者3D显示效果等,此处不做限定。
需要说明的是,在本发明的实施例中,第一终端和第二终端之间建立有通信连接,例如第一终端和第二终端之间通过移动网络或者蓝牙或者wifi建立通信连接。又如第一终端和第二终端都连接到同一个后台系统,第一终端和第二终端都连接到该后台系统,第一终端和第二终端与后台系统分别建立有长连接通道或者轮询通道,则第一终端和第二终端分别与后台系统的通信通过长连接信号或者轮询信号维持,对于心跳包的周期设计,可以结合应用场景来实现,此处不做限定。
在本发明的一些实施例中,步骤101第一终端显示AR场景中的资源对象,包括:
A1、第一终端运行应用程序(Application,APP),在APP的显示界面上显示嵌入有AR标记物的资源对象;或,
A2、第一终端通过浏览器网页页面显示嵌入有AR标记物的资源对象。
其中,第一终端上可以安装多种APP,AR标记物可以通过APP的显示界面上显示的资源对象来显示给用户,从而通过APP的显示界面就可以完成AR标记物的展示,例如该APP可以是动画播放程序,或者图片显示程序等。例如用户使用第一终端的APP进行操作,在该APP上显示了某个资源对象时,该资源对象中可以嵌入有AR标记物,此时可以使用第二终端来获取AR标记物,由第二终端显示AR效果,从而实现第一终端和第二终端的多屏互动。又如,第一终端上还可以安装浏览器,则在网页页面上也可以显示资源对象,该网页页面上显示的资源对象上嵌入有AR标记物,例如用户使用第一终端的浏览器进行网页浏览,在网页浏览到某个资源对象时,该资源对象中可以嵌入有AR标记物,此时可以使用第二终端来获取AR标记物,由第二终端显示AR效果,从而实现第一终端和第二终端的多屏互动。
102、在第一终端显示资源对象的过程中,第二终端通过通信连接从第一终端获取到资源对象中嵌入的AR标记物。
在本发明实施例中,第一终端的屏幕上显示资源对象之后,嵌入有AR标记物的资源对象可以实时显示,或者资源对象实时显示但在某个显示触发条件下AR标记物进行显示,由于第一终端和第二终端建立有通信连接,第一终端显示资源对象的过程中,第二终端可以通过通信连接和第一终端进行通信,从而第二终端可以从第一终端获取到资源对象中嵌入的AR标记物,AR标记物由第二终端识别到之后再触发步骤103开始执行,此时第一终端仍可以显示前述的资源对象,在第二终端获取到AR标记物之后,第一终端的平面上显示的资源对象中嵌入的AR标记物可以继续显示,或者隐藏起来,具体结合应用场景来实现。
在本发明的一些实施例中,步骤102第二终端通过通信连接从第一终端获取到资源对象中嵌入的AR标记物,包括:
B1、第二终端使用摄像头对第一终端的显示屏幕进行扫描、或拍照,从而获取到资源对象中嵌入的AR标记物。
其中,AR标记物可以是图像或者二维码信息,则第二终端上的摄像头可以用于AR标记物的获取,举例说明如下。第二终端可以是AR头戴设备,通常都具有光学摄像头和红外摄像头,光学摄像头是用于对日常景物进行拍照,而红外摄像头由于其利用了红外线的特点,能够穿入人体组织,就可以增强图像捕捉能力,尤其是夜间图像的捕捉能力。第二终端获取到的AR标记物,可以是多种表现形式,例如AR标记物可以是角色对象、物品等。
在本发明的另一些实施例中,步骤102第二终端通过通信连接从第一终端获取到资源对象中嵌入的AR标记物,包括:
C1、第二终端获取第一终端的显示屏幕被触摸后发送的长按识别请求;
C2、第二终端通过通信连接接收到长按识别请求,并根据长按识别请求从第一终端的显示屏幕上获取到资源对象中嵌入的AR标记物。
其中,第一终端通过显示屏幕来显示资源对象,当该资源对象中嵌入的AR标记物显示在第一终端的显示屏幕时,用户可以触摸该第一终端的显示屏幕,例如用户长时间触摸第一终端的显示屏幕3秒钟,则第一终端可以获取到用户通过触摸显示屏幕下发的长按识别请求,第一终端通过和第二终端的通信连接向第二终端发送长按识别请求。举例说明,第一终端检测到用户通过触摸显示屏幕下方的长按识别请求之后,第一终端向第二终端发送长按识别请求,第二终端通过通信连接接收到长按识别请求,并根据长按识别请求从第一终端的显示屏幕上获取到资源对象中嵌入的AR标记物。例如,第二终端根据该长按识别请求打开第二终端的摄像头扫描第一终端的屏幕上显示的AR标记物。
103、第二终端根据AR标记物显示AR场景中的AR效果。
在本发明实施例中,在第一终端显示资源对象的过程中,第二终端从第一终端获取到AR标记物之后,第二终端可以解析该AR标记物,确定在第二终端的本地存储获取到需要显示的AR效果,从而获取到AR效果可以在AR标记物的触发下通过第二终端的屏幕来显示,使得第一终端和第二终端能够基于AR标记物实现多屏联动。
在本发明的一些实施例中,步骤102第二终端通过通信连接从第一终端获取到资源对象中嵌入的AR标记物之后,AR场景下的多屏联动方法还包括如下步骤:
D1、第二终端通过通信连接向第一终端发送AR效果播放消息;
D2、第一终端通过通信连接获取到第二终端的AR效果播放消息;
D3、第一终端根据第二终端的AR效果播放消息显示与AR效果相关联的AR资源。
在本发明实施例中,第二终端从第一终端获取到第一终端的显示屏幕上显示的AR标记物之后,第二终端还可以向第一终端反馈是否接收到AR标记物的确认消息,第二终端在显示AR场景中的AR效果之前,第二终端向第一终端发送AR效果播放消息,第一终端获取到第二终端的AR效果播放消息,从而第一终端可以获知该第二终端已经获取到AR标记物,并且该第二终端即将播放AR效果,第一终端可以根据第二终端的AR效果播放消息显示与AR效果相关联的AR资源,即第一终端可以与第二终端同步播放AR资源,使得第一终端的屏幕和第二终端的屏幕能够显示相关联的AR资源和AR效果。举例说明,第二终端接收到第一终端的AR标记物,第二终端向第一终端发送AR效果即将播放的提示消息,第一终端接收到该提示消息后开始播放动画资源,从而与第二终端播放的AR效果同步完成播放。
在本发明的一些实施例中,步骤103第二终端根据AR标记物显示AR场景中的AR效果,包括:
E1、第二终端根据AR标记物获取到AR资源;
E2、第二终端在第二终端的屏幕上显示AR资源对应的AR效果。
在本发明的前述实施例中,AR标记物的数量以及种类不需要限定,只要能够唤醒第二终端的AR效果即可。第二终端根据该AR标记物可以获取到AR标记物对应的AR资源,对于不同的AR标记物第二终端可以获取到不同的AR资源,其中,AR资源可以为由AR标记物触发的动画资源、游戏资源、美术资源等。举例说明,第二终端中在已安装的应用程序中配置有多个AR标记物对应的AR资源,当第二终端从第一终端获取到AR标记物时,第二终端可以从该应用程序中获取到AR资源。又如,第二终端和AR资源服务器建立有通信连接,当第二终端从第一终端获取到AR标记物时,第二终端使用该AR标记物和AR资源服务器进行交互,第二终端可以从AR资源服务器获取到AR标记物对应的AR资源。又如,第二终端在本地缓存中预先存储有多个AR标记物对应的AR资源,从而通过AR资源在第二终端的屏幕上显示,可以实现每个AR标记物所对应的AR效果,例如该AR效果为动画效果、3D效果等。
通过以上实施例对本发明实施例的描述可知,AR场景下的多屏联动系统包括:建立有通信连接的第一终端和第二终端,第一终端在资源对象中嵌入有AR标记物,该AR标记物在第一终端的屏幕上显示,在第一终端显示资源对象的过程中,第二终端通过通信连接从第一终端获取到资源对象中嵌入的AR标记物,从而第二终端根据AR标记物显示AR场景中的AR效果。本发明实施例中第二终端上显示的AR效果由第一终端中显示的AR标记物来触发,因此本发明实施例中可以实现第一终端的屏幕和第二终端的屏幕之间的多屏联动,满足用户对AR场景下多屏幕联动的需求。
为便于更好的理解和实施本发明实施例的上述方案,下面举例相应的应用场景来进行具体说明。
本发明实施例提出在AR场景下的多屏联动系统实现的多屏联动方法,该多屏联动系统下包括:终端1和终端2,其中,终端1为PC端,终端2为移动终端,本发明实施例提供的多屏联动系统可以实现PC屏幕与移动终端(例如手机、平板)等屏幕的联合互动。
请参阅图2所示,为本发明实施例提供的AR场景下的AR效果的多屏联动流程示意图。本发明实施例首先针对某一端屏幕先行,例如PC端的动画播放,动画首帧等,以PC端先行为例进行说明,其他屏幕先行同理。在进行至某一时刻或用户完成某些交互后触发其他终端屏幕进行相关展示,例如终端2为移动终端为例进行说明,其他屏幕同理。本发明实施例提供的这种联动方式拥有非常优越的交互性,例如实现多个AR标记物的AR扫描,动画触发等,可以提供更新颖的用户体验。本发明实施例中可以实现终端1和终端2之间的多屏幕交互,适用于同时有手机APP和PC网页两种形态的产品,通过AR控制PC端网页状态变化,AR控制手机端的APP状态变化。
在本发明的一些实施例中,终端1、终端2分别和后台系统保持长连接。例如,终端1和终端2都和后台系统保持对同一后台系统的轮询信号。然后终端2启动识别扫描,终端1开始播放首帧动画,例如终端2开启摄像头,启动识别扫描,终端1的屏幕上先开始播放首帧动画。终端2还需要配置如下处理逻辑:在AR动画开始之后,若AR动画结束向后台系统返回结果,也就是说明,终端2从本地存储中存储有AR动画,在AR动画结束后向后台系统返回结果。终端1和终端2完成前述的预配置过程之后,开始执行图2所示的流程,该流程主要包括如下步骤:
步骤1、终端1从后台系统获取终端2完成预配置。
终端1和终端2通过长连接信号进行通信,终端1获取到终端2已经完成前述的预配置。
步骤2、终端1播放动画效果。
其中,终端1播放的动画效果中嵌入有AR标记物。
步骤3、终端2扫描到终端1的动画中嵌入的AR标记物。
例如,终端2使用摄像头扫描终端1的动画中嵌入的AR标记物。
步骤4、终端2播放AR效果。
例如,终端2根据AR标记物触发AR效果的执行。在终端1上提供AR标记物,数量种类不固定,用于唤醒终端2侧的AR动画,制作开发每个AR标记物所对应的AR效果,常见为AR动画、3D效果等。
具体的,将AR标记物通过网页(web)页面,例如H5页面,给到用户使之可以识别,识别方式亦不限定,常见如扫描,拍照,长按识别等。用户识别到AR标记物触发AR效果,常见为与实时场景相符或有交互的动画等,可进行终端1屏幕与终端2屏幕间的交互。
步骤5、终端2判断是否为最后一个AR效果。
若有多个AR标记物,则需要重新执行步骤1至步骤5,终端2判断出最后一个AR效果被执行完成后,结束整个流程。
通过前述的举例说明可知,本发明实施例中可以实现优越的交互性,多AR标记物的AR扫描,动画触发展示跳转等,可以提供更多的用户交互方式。实现新颖的用户体验,多AR标记物的多屏联动系统在每个用户环节和步骤上提供了更多交互方式的选择余地,双屏效果体验会更加新颖。需要说明的是,终端1和终端2之间可以是同步的播放效果,也可以是异步的播放效果,这些取决于产品侧的设计,此处不做限定。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
为便于更好的实施本发明实施例的上述方案,下面还提供用于实施上述方案的相关装置。
请参阅图3所示,本发明实施例提供的一种AR场景下的多屏联动系统300,可以包括:建立有通信连接的第一终端301和第二终端302,其中,
所述第一终端301,用于显示所述AR场景中的资源对象,所述资源对象中嵌入有AR标记物;
所述第二终端302,用于当所述第一终端301显示所述资源对象的过程中,通过所述通信连接从所述第一终端301获取到所述资源对象中嵌入的所述AR标记物,以及根据所述AR标记物显示所述AR场景中的AR效果。
在本发明的一些实施例中,所述第一终端301,具体用于运行应用程序APP,在所述APP的显示界面上显示嵌入有AR标记物的资源对象;或,通过浏览器网页页面显示嵌入有AR标记物的资源对象。
在本发明的一些实施例中,所述第二终端302,具体用于使用摄像头对所述第一终端301的显示屏幕进行扫描、或拍照,从而获取到所述资源对象中嵌入的所述AR标记物。
在本发明的一些实施例中,所述第二终端302,具体用于获取所述第一终端301的显示屏幕被触摸后发送的长按识别请求;通过所述通信连接接收到所述长按识别请求,并根据所述长按识别请求从所述第一终端301的显示屏幕上获取到所述资源对象中嵌入的所述AR标记物。
在本发明的一些实施例中,所述第二终端302,还用于通过所述通信连接向所述第一终端301发送AR效果播放消息;
所述第一终端301,还用于通过所述通信连接获取到所述第二终端302的AR效果播放消息;根据所述第二终端302的AR效果播放消息显示与所述AR效果相关联的AR资源。
在本发明的一些实施例中,所述第一终端301和所述第二终端302之间通过长连接信号或者轮询信号进行相互通信。
在本发明的一些实施例中,所述第二终端,具体用于根据所述AR标记物获取到AR资源;在所述第二终端的屏幕上显示所述AR资源对应的AR效果。
通过以上对本发明实施例的描述可知,AR场景下的多屏联动系统包括:建立有通信连接的第一终端和第二终端,第一终端在资源对象中嵌入有AR标记物,该AR标记物在第一终端的屏幕上显示,在第一终端显示资源对象的过程中,第二终端通过通信连接从第一终端获取到资源对象中嵌入的AR标记物,从而第二终端根据AR标记物显示AR场景中的AR效果。本发明实施例中第二终端上显示的AR效果由第一终端中显示的AR标记物来触发,因此本发明实施例中可以实现第一终端的屏幕和第二终端的屏幕之间的多屏联动,满足用户对AR场景下多屏幕联动的需求。
本发明实施例还提供了另一种终端,该终端可以如前述实施例中的第一终端,或者该终端为前述实施例中的第二终端。如图4所示,为了便于说明,仅示出了与本发明实施例相关的部分,具体技术细节未揭示的,请参照本发明实施例方法部分。该终端可以为包括手机、平板电脑、PDA(Personal Digital Assistant,个人数字助理)、POS(Point ofSales,销售终端)、车载电脑等任意终端设备,以终端为手机为例:
图4示出的是与本发明实施例提供的终端相关的手机的部分结构的框图。参考图4,手机包括:射频(Radio Frequency,RF)电路1010、存储器1020、输入单元1030、显示单元1040、传感器1050、音频电路1060、无线保真(wireless fidelity,WiFi)模块1070、处理器1080、以及电源1090等部件。本领域技术人员可以理解,图4中示出的手机结构并不构成对手机的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
下面结合图4对手机的各个构成部件进行具体的介绍:
RF电路1010可用于收发信息或通话过程中,信号的接收和发送,特别地,将基站的下行信息接收后,给处理器1080处理;另外,将设计上行的数据发送给基站。通常,RF电路1010包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器(Low NoiseAmplifier,LNA)、双工器等。此外,RF电路1010还可以通过无线通信与网络和其他设备通信。上述无线通信可以使用任一通信标准或协议,包括但不限于全球移动通讯系统(GlobalSystem of Mobile communication,GSM)、通用分组无线服务(General Packet RadioService,GPRS)、码分多址(Code Division Multiple Access,CDMA)、宽带码分多址(Wideband Code Division Multiple Access,WCDMA)、长期演进(Long Term Evolution,LTE)、电子邮件、短消息服务(Short Messaging Service,SMS)等。
存储器1020可用于存储软件程序以及模块,处理器1080通过运行存储在存储器1020的软件程序以及模块,从而执行手机的各种功能应用以及数据处理。存储器1020可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器1020可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
输入单元1030可用于接收输入的数字或字符信息,以及产生与手机的用户设置以及功能控制有关的键信号输入。具体地,输入单元1030可包括触控面板1031以及其他输入设备1032。触控面板1031,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板1031上或在触控面板1031附近的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触控面板1031可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器1080,并能接收处理器1080发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板1031。除了触控面板1031,输入单元1030还可以包括其他输入设备1032。具体地,其他输入设备1032可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
显示单元1040可用于显示由用户输入的信息或提供给用户的信息以及手机的各种菜单。显示单元1040可包括显示面板1041,可选的,可以采用液晶显示器(LiquidCrystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板1041。进一步的,触控面板1031可覆盖显示面板1041,当触控面板1031检测到在其上或附近的触摸操作后,传送给处理器1080以确定触摸事件的类型,随后处理器1080根据触摸事件的类型在显示面板1041上提供相应的视觉输出。虽然在图4中,触控面板1031与显示面板1041是作为两个独立的部件来实现手机的输入和输入功能,但是在某些实施例中,可以将触控面板1031与显示面板1041集成而实现手机的输入和输出功能。
手机还可包括至少一种传感器1050,比如光传感器、运动传感器以及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板1041的亮度,接近传感器可在手机移动到耳边时,关闭显示面板1041和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于手机还可配置的陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
音频电路1060、扬声器1061,传声器1062可提供用户与手机之间的音频接口。音频电路1060可将接收到的音频数据转换后的电信号,传输到扬声器1061,由扬声器1061转换为声音信号输出;另一方面,传声器1062将收集的声音信号转换为电信号,由音频电路1060接收后转换为音频数据,再将音频数据输出处理器1080处理后,经RF电路1010以发送给比如另一手机,或者将音频数据输出至存储器1020以便进一步处理。
WiFi属于短距离无线传输技术,手机通过WiFi模块1070可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图4示出了WiFi模块1070,但是可以理解的是,其并不属于手机的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
处理器1080是手机的控制中心,利用各种接口和线路连接整个手机的各个部分,通过运行或执行存储在存储器1020内的软件程序和/或模块,以及调用存储在存储器1020内的数据,执行手机的各种功能和处理数据,从而对手机进行整体监控。可选的,处理器1080可包括一个或多个处理单元;优选的,处理器1080可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器1080中。
手机还包括给各个部件供电的电源1090(比如电池),优选的,电源可以通过电源管理系统与处理器1080逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
尽管未示出,手机还可以包括摄像头、蓝牙模块等,在此不再赘述。
在本发明实施例中,该终端所包括的处理器1080还具有控制执行以上由第一终端执行的多屏联动方法流程,或者该终端所包括的处理器1080还具有控制执行以上由第二终端执行的多屏联动方法流程,第一终端和第二终端执行的多屏联动方法流程详见前述实施例的说明。
另外需说明的是,以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。另外,本发明提供的装置实施例附图中,模块之间的连接关系表示它们之间具有通信连接,具体可以实现为一条或多条通信总线或信号线。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,所属领域的技术人员可以清楚地了解到本发明可借助软件加必需的通用硬件的方式来实现,当然也可以通过专用硬件包括专用集成电路、专用CPU、专用存储器、专用元器件等来实现。一般情况下,凡由计算机程序完成的功能都可以很容易地用相应的硬件来实现,而且,用来实现同一功能的具体硬件结构也可以是多种多样的,例如模拟电路、数字电路或专用电路等。但是,对本发明而言更多情况下软件程序实现是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在可读取的存储介质中,如计算机的软盘、U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
综上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照上述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对上述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (12)

1.一种增强现实AR场景下的多屏联动方法,其特征在于,所述AR场景下的多屏联动方法应用于AR场景下的多屏联动系统,所述AR场景下的多屏联动系统包括:建立有通信连接的第一终端和第二终端,所述方法包括:
所述第一终端显示所述AR场景中的资源对象,所述资源对象中嵌入有AR标记物;
在所述第一终端显示所述资源对象的过程中,所述第二终端通过所述通信连接从所述第一终端获取到所述资源对象中嵌入的所述AR标记物;
所述第二终端根据所述AR标记物显示所述AR场景中的AR效果。
2.根据权利要求1所述的方法,其特征在于,所述第一终端显示所述AR场景中的资源对象,包括:
所述第一终端运行应用程序APP,在所述APP的显示界面上显示嵌入有AR标记物的资源对象;或,
所述第一终端通过浏览器网页页面显示嵌入有AR标记物的资源对象。
3.根据权利要求1所述的方法,其特征在于,所述第二终端通过所述通信连接从所述第一终端获取到所述资源对象中嵌入的所述AR标记物,包括:
所述第二终端使用摄像头对所述第一终端的显示屏幕进行扫描、或拍照,从而获取到所述资源对象中嵌入的所述AR标记物。
4.根据权利要求1所述的方法,其特征在于,所述第二终端通过所述通信连接从所述第一终端获取到所述资源对象中嵌入的所述AR标记物,包括:
所述第二终端获取所述第一终端的显示屏幕被触摸后发送的长按识别请求;
所述第二终端通过所述通信连接接收到所述长按识别请求,并根据所述长按识别请求从所述第一终端的显示屏幕上获取到所述资源对象中嵌入的所述AR标记物。
5.根据权利要求1所述的方法,其特征在于,所述第二终端通过所述通信连接从所述第一终端获取到所述资源对象中嵌入的所述AR标记物之后,所述方法还包括:
所述第二终端通过所述通信连接向所述第一终端发送AR效果播放消息;
所述第一终端通过所述通信连接获取到所述第二终端的AR效果播放消息;
所述第一终端根据所述第二终端的AR效果播放消息显示与所述AR效果相关联的AR资源。
6.根据权利要求1至5中任一项所述的方法,其特征在于,所述第二终端根据所述AR标记物显示所述AR场景中的AR效果,包括:
所述第二终端根据所述AR标记物获取到AR资源;
所述第二终端在所述第二终端的屏幕上显示所述AR资源对应的AR效果。
7.一种增强现实AR场景下的多屏联动系统,其特征在于,所述AR场景下的多屏联动系统包括:建立有通信连接的第一终端和第二终端,所述系统包括:
所述第一终端,用于显示所述AR场景中的资源对象,所述资源对象中嵌入有AR标记物;
所述第二终端,用于在所述第一终端显示所述资源对象的过程中,通过所述通信连接从所述第一终端获取到所述资源对象中嵌入的所述AR标记物,以及根据所述AR标记物显示所述AR场景中的AR效果。
8.根据权利要求7所述的系统,其特征在于,所述第一终端,具体用于运行应用程序APP,在所述APP的显示界面上显示嵌入有AR标记物的资源对象;或,通过浏览器网页页面显示嵌入有AR标记物的资源对象。
9.根据权利要求7所述的系统,其特征在于,所述第二终端,具体用于使用摄像头对所述第一终端的显示屏幕进行扫描、或拍照,从而获取到所述资源对象中嵌入的所述AR标记物。
10.根据权利要求7所述的系统,其特征在于,所述第二终端,具体用于获取所述第一终端的显示屏幕被触摸后发送的长按识别请求;通过所述通信连接接收到所述长按识别请求,并根据所述长按识别请求从所述第一终端的显示屏幕上获取到所述资源对象中嵌入的所述AR标记物。
11.根据权利要求7所述的系统,其特征在于,所述第二终端,还用于通过所述通信连接向所述第一终端发送AR效果播放消息;
所述第一终端,还用于通过所述通信连接获取到所述第二终端的AR效果播放消息;根据所述第二终端的AR效果播放消息显示与所述AR效果相关联的AR资源。
12.根据权利要求7至11中任一项所述的系统,其特征在于,所述第二终端,具体用于根据所述AR标记物获取到AR资源;在所述第二终端的屏幕上显示所述AR资源对应的AR效果。
CN201611147184.XA 2016-12-13 2016-12-13 一种ar场景下的多屏联动方法和系统 Pending CN108228120A (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201611147184.XA CN108228120A (zh) 2016-12-13 2016-12-13 一种ar场景下的多屏联动方法和系统
PCT/CN2017/111615 WO2018107941A1 (zh) 2016-12-13 2017-11-17 一种ar场景下的多屏联动方法和系统
US16/374,559 US10768881B2 (en) 2016-12-13 2019-04-03 Multi-screen interaction method and system in augmented reality scene

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611147184.XA CN108228120A (zh) 2016-12-13 2016-12-13 一种ar场景下的多屏联动方法和系统

Publications (1)

Publication Number Publication Date
CN108228120A true CN108228120A (zh) 2018-06-29

Family

ID=62557857

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611147184.XA Pending CN108228120A (zh) 2016-12-13 2016-12-13 一种ar场景下的多屏联动方法和系统

Country Status (3)

Country Link
US (1) US10768881B2 (zh)
CN (1) CN108228120A (zh)
WO (1) WO2018107941A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111240630A (zh) * 2020-01-21 2020-06-05 杭州易现先进科技有限公司 增强现实的多屏控制方法、装置、计算机设备及存储介质
CN112506335A (zh) * 2019-09-16 2021-03-16 Oppo广东移动通信有限公司 头戴式设备及其控制方法、装置、系统和存储介质
CN112887299A (zh) * 2021-01-22 2021-06-01 平安普惠企业管理有限公司 在线互动方法、装置、电子设备及存储介质

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9420251B2 (en) 2010-02-08 2016-08-16 Nikon Corporation Imaging device and information acquisition system in which an acquired image and associated information are held on a display
CN107908328A (zh) * 2017-11-15 2018-04-13 百度在线网络技术(北京)有限公司 增强现实方法和装置
TWI694356B (zh) * 2018-04-03 2020-05-21 義隆電子股份有限公司 電子系統
WO2020078443A1 (zh) * 2018-10-18 2020-04-23 广东虚拟现实科技有限公司 基于增强现实的虚拟内容显示方法、系统及终端设备
CN110989825B (zh) * 2019-09-10 2020-12-01 中兴通讯股份有限公司 增强现实互动实现方法及系统、增强现实设备、存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104363590A (zh) * 2014-10-24 2015-02-18 腾讯科技(深圳)有限公司 接入点连接方法及装置
CN106200944A (zh) * 2016-06-30 2016-12-07 联想(北京)有限公司 一种对象的控制方法、控制装置和控制系统

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102147658B (zh) * 2011-02-12 2013-01-09 华为终端有限公司 实现扩增实境互动的方法、扩增实境互动装置及移动终端
US8493353B2 (en) * 2011-04-13 2013-07-23 Longsand Limited Methods and systems for generating and joining shared experience
US9846965B2 (en) * 2013-03-15 2017-12-19 Disney Enterprises, Inc. Augmented reality device with predefined object data
TWI503577B (zh) * 2014-03-20 2015-10-11 Syndiant Inc 頭戴式擴增實境顯示系統
CN104536763B (zh) * 2015-01-08 2017-03-08 炫彩互动网络科技有限公司 一种模拟现实的网络游戏实现方法
CN104575142B (zh) * 2015-01-29 2018-01-02 上海开放大学 体验式数字化多屏无缝跨媒体互动开放教学实验室

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104363590A (zh) * 2014-10-24 2015-02-18 腾讯科技(深圳)有限公司 接入点连接方法及装置
CN106200944A (zh) * 2016-06-30 2016-12-07 联想(北京)有限公司 一种对象的控制方法、控制装置和控制系统

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112506335A (zh) * 2019-09-16 2021-03-16 Oppo广东移动通信有限公司 头戴式设备及其控制方法、装置、系统和存储介质
WO2021052131A1 (zh) * 2019-09-16 2021-03-25 Oppo广东移动通信有限公司 头戴式设备及其控制方法、装置、系统和存储介质
CN112506335B (zh) * 2019-09-16 2022-07-12 Oppo广东移动通信有限公司 头戴式设备及其控制方法、装置、系统和存储介质
CN111240630A (zh) * 2020-01-21 2020-06-05 杭州易现先进科技有限公司 增强现实的多屏控制方法、装置、计算机设备及存储介质
CN111240630B (zh) * 2020-01-21 2023-09-26 杭州易现先进科技有限公司 增强现实的多屏控制方法、装置、计算机设备及存储介质
CN112887299A (zh) * 2021-01-22 2021-06-01 平安普惠企业管理有限公司 在线互动方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
US10768881B2 (en) 2020-09-08
US20190227764A1 (en) 2019-07-25
WO2018107941A1 (zh) 2018-06-21

Similar Documents

Publication Publication Date Title
CN108228120A (zh) 一种ar场景下的多屏联动方法和系统
CN108958074B (zh) 一种智能设备控制方法及移动终端
CN107438200A (zh) 直播间礼物展示的方法和装置
CN104238893B (zh) 一种对视频预览图片进行显示的方法和装置
CN104036536B (zh) 一种定格动画的生成方法和装置
CN106303733B (zh) 播放直播特效信息的方法和装置
CN108040288B (zh) 视频编辑方法、装置及智能移动终端
CN109388304A (zh) 一种截屏方法及终端设备
CN106547844B (zh) 一种用户界面的处理方法和装置
CN104571979B (zh) 一种实现分屏视图的方法和装置
CN104159140B (zh) 一种视频处理的方法、装置和系统
CN110109593A (zh) 一种截屏方法及终端设备
CN110674662A (zh) 一种扫描方法及终端设备
CN109213416A (zh) 一种显示信息处理方法及移动终端
CN108897473A (zh) 一种界面显示方法及终端
CN108320148A (zh) 一种资源转移方法及相关设备
CN109871358A (zh) 一种管理方法及终端设备
CN109976629A (zh) 图像显示方法、终端和移动终端
CN104660769B (zh) 一种添加联系人信息的方法、装置和系统
CN110460894A (zh) 一种视频图像显示方法及终端设备
CN108062194A (zh) 一种显示方法、装置及移动终端
CN109491632A (zh) 一种资源分享方法及终端
CN107864408A (zh) 信息展示方法、装置及系统
CN108055383A (zh) 截屏图片的获取方法、装置和移动终端
CN104516890A (zh) 业务处理方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20180629

RJ01 Rejection of invention patent application after publication