CN107688573A - 一种基于互联网+的交互、可视化系统及其使用方法 - Google Patents

一种基于互联网+的交互、可视化系统及其使用方法 Download PDF

Info

Publication number
CN107688573A
CN107688573A CN201610631319.3A CN201610631319A CN107688573A CN 107688573 A CN107688573 A CN 107688573A CN 201610631319 A CN201610631319 A CN 201610631319A CN 107688573 A CN107688573 A CN 107688573A
Authority
CN
China
Prior art keywords
module
data
information
user
internet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201610631319.3A
Other languages
English (en)
Inventor
刘金锁
任柯燕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN201610631319.3A priority Critical patent/CN107688573A/zh
Publication of CN107688573A publication Critical patent/CN107688573A/zh
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9537Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers

Abstract

本发明公开了一种基于互联网+的交互、可视化系统,包括:定位模块、数据采集模块、数据对比模块、中央控制模块、数据库模块、显示模块和三维引擎模块。中央控制模块可以根据定位模块反馈的用户位置信息相用户提供相应的产品信息数据,同时用户可以根据数据采集模块通过肢体和语音对产品信息的播放进行控制,同时能够和中央控制模块进行互动。本发明提供的一种基于互联网+的交互、可视化系统,通过多种交互方式互补,给观众或游客呈现一个沉浸感、易懂性、科技感、三维化、实时化的一个体验平台。

Description

一种基于互联网+的交互、可视化系统及其使用方法
技术领域
本发明涉及通信领域,具体涉及一种基于互联网+的交互、可视化系统及其使用方法。
背景技术
“互联网+”是创新2.0下的互联网发展的新业态,是知识社会创新2.0推动下的互联网形态演进及其催生的经济社会发展新形态。“互联网+”是互联网思维的进一步实践成果,推动经济形态不断地发生演变,从而带动社会经济实体的生命力,为改革、创新、发展提供广阔的网络平台。
现如今,在展示和培训行业中实现输出内容信息更好的被接受、展示介绍手段丰富、简单易懂、具有交互性等是一个刚性需求,这意味着满足其需求的过程中必须重视互联网+新技术关键结合作用。在互联网的支撑下,响应“互联网+”综合新技术来服务的解决方案将是践行互联网化、面向需求满足化、通用易懂、交互化的关键手段,也是未来各在各行业的发展重点。
传统展馆以展板、实物为主,且大部分可能陈列在橱窗、不能近距离接触或触摸,加上观众或游客人数较多聚集在展项时会出现遮挡影响宣传与展示效果。通过本方案展品终端交互可视化系统辅助实物进行展示,可以在分流观众的同时,为参观效果丰富知识,易于控制与掌握。
同时绿色展览已经成为各地经济发展的重要引擎之一,结合互联网+技术、虚拟现实技术、增强现实技术、体感语音交互技术等在展览展示行业应用也符合倡导的绿色展览的主题。
现今天早已步入移动互联及大数据时代,据不完全统计有10.5亿部手机及移动终端和3亿多台PC机设备。近年来随着计算机软、硬件技术的迅猛发展,为本平台系统方法应用进而支持复杂的分析、决策和管理打下了坚实的基础。一些移动终端设备(像平板电脑、PDA、智能手机、网络电视、智能头盔、智能一体机等)的功能也越来越丰富,并且拥有了嵌入式操作系统、触摸屏、陀螺仪、GPS定位、视频摄像头等功能,同时也具备了较强的计算和处理能力。这些功能的集成为开发基于移动终端的交互性虚拟现实和增强现实系统奠定了基础。其使用者其移动终端的摄像头可以进行图像、位置、交互采集等相应工作,匹配专用的基于互联网的交互化应用程序与技术手段可实现“自然交互、寓教于乐”的参观浏览模式。
发明内容
本发明是为了克服现有技术中展示和培训行业的介绍手段单一,与用户互动性不强的问题,提供一种基于互联网+的交互、可视化系统及其使用方法,通过多种交互方式互补,给观众或游客呈现一个沉浸感、易懂性、科技感、三维化、实时化的一个体验平台。
本发明提供一种基于互联网+的交互、可视化系统,包括:
定位模块:用于采集用户位置信息;
数据采集模块:用于采集用户语音信息和肢体信息;
数据对比模块:用于将定位模块采集的用户位置信息和数据采集模块采集的用户语音信息或肢体信息与数据库模块相应的数据进行对比,生成控制指令,并将控制指令发送至中央控制模块;
中央控制模块:用于接收数据对比模块发送的控制指令,并根据控制指令向数据库模块发送数据传送指令;
数据库模块:用于存储用户位置信息、语音信息和肢体信息,用于存储产品信息数据,用于接收中央控制模块发送的传送指令并根据传送指令将对应的产品信息数据发送至显示模块;显示模块:用于将数据库模块发送的产品信息数据反馈至用户。
本发明提供一种基于互联网+的交互、可视化系统,作为优选方式,定位模块包括下述装置之一或组合
GPS定位装置、摄像头和陀螺仪。
使用GPS定位装置,定位模块能够根据用户身上佩戴的移动设备,如手机等,获取用户的位置信息;摄像头能够通过图像采集来确定用户的位置信息;陀螺仪是用高速回转体的动量矩敏感壳体相对惯性空间绕正交于自转轴的一个或二个轴的角运动检测装置,同样能够对用户进行定位。
本发明提供一种基于互联网+的交互、可视化系统,作为优选方式,数据采集模块包括下述装置之一或组合
摄像头、红外扫描装置、麦克风、外置交互设备。
摄像头和红外扫描装置能够采集用户的肢体语言,并通过与数据库存储的数据进行对比来对肢体语言进行判定;麦克风能够采集用户的语音信息,并通过与数据库存储的数据进行对比来对语音信息进行判定。同时采集模块以VRPN或开发专用协议等接口联接相应的外围常见的市场交互设备。
本发明提供一种基于互联网+的交互、可视化系统,作为优选方式,数据库模块包括
云端数据库模块:用于存储用户位置信息、语音信息和肢体信息,用于存储产品信息数据;
终端移动数据库模块:用于存储由云端数据库模块根据传送指令发送的产品数据信息,如SQLite、Realm、CoreData等,其内置终端缓存部分能够使其在离网时显示输出。
本发明提供一种基于互联网+的交互、可视化系统,作为优选方式,系统进一步包括
三维引擎模块:用于将产品信息数据进行渲染和三维或立体化处理。
本发明提供一种基于互联网+的交互、可视化系统的使用方法,包括以下步骤:
S1、定位模块采集用户位置信息;
S2、询问用户是否开启数据采集模块,如用户选择“是”,则进入步骤S3,如用户选择“否”,则进入步骤S4;
S3、开启数据采集模块,采集用户语音信息和肢体信息或相关输入的交互设备信息内容;
S4、将定位模块采集的用户位置信息和/或数据采集模块采集的语音信息与肢体信息传送至数据对比模块;
S5、数据对比模块根据数据库模块相应的数据进行对比,生成控制指令;
S6、数据对比模块将控制指令发送至中央控制模块;
S7、中央控制模块根据控制指令向数据库模块发送数据传送指令;
S8、数据库模块根据传送指令将对应的产品信息数据发送至显示模块;
S9、显示模块将产品信息数据反馈至用户。
本发明提供一种基于互联网+的交互、可视化系统的使用方法,作为优选方式,步骤S1进一步包括以下步骤:
S11、将位置信息采集区域划分成若干分区,并对每个分区进行编号;
S12:通过定位模块中的数据采集装置采集用户当前的位置状态信息;
S13:将位置状态信息与编号进行对比,生成位置信息。
本发明提供一种基于互联网+的交互、可视化系统的使用方法,作为优选方式,步骤S9进一步包括以下步骤:
S91:将产品数据信息进行渲染和立体化处理;
S92:将经过步骤S91渲染和立体化处理后的产品数据信息通过显示设备展现给用户。
本发明提供一种基于互联网+的交互、可视化系统的使用方法,作为优选方式,显示设备包括下述装置之一或组合
固定台式电脑、移动手持终端设备、智能眼睛、智能头盔、一体机。
固定台式电脑、移动手持终端设备能够将产品信息以图像、三维模型、交互视频内容或用户定义的展现手段(如交互图片结合语音播放内容形式)等形式展现给用户;用户通过佩戴智能眼睛、智能头盔,能够将产品信息以立体的形式展现给用户。
本发明由于将定位模块采集的用户位置信息和数据采集模块采集的用户肢体信息与语音信息与所述数据库模块中相应的数据进行对比,可能实时的将产品信息展现在用户面前,并且用户可以通过肢体和语音对产品信息的展现进行自主的控制,达到多种交互方式互补。
本发明进一步建立关于产品信息与用户位置信息、肢体信息和语音信息的数据库,能够极大的丰富互动交流的模式与产品展现方式,给观众或游客呈现一个沉浸感、易懂性、科技感、三维化、实时化的一个体验平台。
附图说明
图1为一种基于互联网+的交互、可视化系统构成图;
图2为一种基于互联网+的交互、可视化系统包含三维引擎模块的构成图;
图3为一种基于互联网+的交互、可视化系统的使用方法流程图;
图4为一种基于互联网+的交互、可视化系统的使用方法步骤S1流程图;
图5为一种基于互联网+的交互、可视化系统的使用方法步骤S9流程图;
图6为一种基于互联网+的交互、可视化系统及其使用方法实施例1流程图;
图7为一种基于互联网+的交互、可视化系统及其使用方法实施例2流程图;
图8为一种基于互联网+的交互、可视化系统及其使用方法实施例3流程图。
具体实施方式
下面结合说明书附图来说明本发明的具体实施方式。
本发明提供一种基于互联网+的交互、可视化系统,如图1~2所示,包括:
定位模块100:用于采集用户位置信息;
数据采集模块200:用于采集用户语音信息和肢体信息;
数据对比模块300:用于将定位模块100采集的用户位置信息和数据采集模块200采集的用户语音信息或肢体信息与数据库模块500相应的数据进行对比,生成控制指令,并将控制指令发送至中央控制模块400;
中央控制模块400:用于接收数据对比模块300发送的控制指令,并根据控制指令向数据库模块500发送数据传送指令;
数据库模块500:用于存储用户位置信息、语音信息和肢体信息,用于存储产品信息数据,用于接收中央控制模块400发送的传送指令并根据传送指令将对应的产品信息数据发送至显示模块600;
显示模块600:用于将数据库模块500发送的产品信息数据反馈至用户;
三维引擎模块700:用于将产品信息数据进行渲染和三维或立体化处理。
本发明提供一种基于互联网+的交互、可视化系统的使用方法,如图3~5所示,包括以下步骤:
S1、定位模块100采集用户位置信息;包括
S11、将位置信息采集区域划分成若干分区,并对每个分区进行编号;
S12:通过定位模块100中的数据采集装置采集用户当前的位置状态信息;
S13:将位置状态信息与编号进行对比,生成位置信息;
S2、询问用户是否开启数据采集模块200,如用户选择“是”,则进入步骤S3,如用户选择“否”,则进入步骤S4;
S3、开启数据采集模块200,采集用户语音信息和肢体信息;
S4、将定位模块100采集的用户位置信息和/或数据采集模块200采集的语音信息与肢体信息传送至数据对比模块300;
S5、数据对比模块300根据数据库模块500相应的数据进行对比,生成控制指令;
S6、数据对比模块300将控制指令发送至中央控制模块400;
S7、中央控制模块400根据控制指令向数据库模块500发送数据传送指令;
S8、数据库模块500根据传送指令将对应的产品信息数据发送至显示模块;
S9、显示模块600将产品信息数据反馈至用户,包括
S91:三维引擎模块700将产品数据信息进行渲染和三维或立体化处理;
S92:将经过步骤S91渲染和立体化处理后的产品数据信息通过显示设备展现给用户。
实施例1
用户在展馆参观,到达某个固定的展位,如图6所示,系统使用包括以下步骤:
S11:定位模块100通过定位模块中的摄像头采集用户当前的位置状态信息;
S12:将位置状态信息与预设的展馆位置编号进行对比,生成位置信息;
S13、询问用户是否开启数据采集模块200,如用户选择“是”,则进入步骤S14,如用户选择“否”,则进入步骤S15;
S14、开启数据采集模块200,采集用户语音信息和肢体信息;
S15、将定位模块100采集的用户位置信息和/或数据采集模块200采集的语音信息与肢体信息传送至数据对比模块300;
S16、数据对比模块300根据数据库模块500相应的数据进行对比,生成控制指令;
S17、数据对比模块300将控制指令发送至中央控制模块400;
S18、中央控制模块400根据控制指令向数据库模块500发送数据传送指令;
S19、数据库模块500根据传送指令将对应的站台介绍数据发送至显示模块600;
S110、三维引擎模块700将站台介绍信息进行渲染和三维或立体化处理;
S111:将经过步骤S110渲染和立体化处理后的站台介绍信息通过一体机展现给用户。
本实施例中,当用户到达某个固定站台时,定位模块100采集用户的位置信息,数据库模块500根据用户的位置信息提取相应的展台介绍信息,经过三维引擎模块700渲染和三维或立体化处理后通过显示模块600展现给用户。同时询问用户是否开启数据采集模块200,如用户选择“是”,则用户可以通过自己的肢体和语言对站台介绍信息的播放进行控制以及和中央控制模块400进行交互,如用户选择“否”,显示模块按照预先设定的程序播放站台介绍信息。
实施例2
用户在博物馆游览,到达某个固定景点,如图7所示,系统使用包括以下步骤:
S21:定位模块100采集用户的位置;
S22、询问用户是否开启数据采集模块200,如用户选择“是”,则进入步骤S23,如用户选择“否”,则进入步骤S24;
S23、开启数据采集模块200,采集用户语音信息和肢体信息;
S24、将定位模块采集100的用户位置信息和/或数据采集模块200采集的语音信息与肢体信息传送至数据对比模块300;
S25、数据对比模块300根据数据库模块500相应的数据进行对比,生成控制指令;
S26、数据对比模块300将控制指令发送至中央控制模块400;
S27、中央控制模块400根据控制指令向数据库模块500发送数据传送指令;
S28、数据库模块500根据传送指令将对应的景点介绍数据发送至显示模块;
S29、三维引擎模块700将产品数据信息进行渲染和三维或立体化处理;
S210:将经过步骤S29渲染和立体化处理后的景点介绍信息通过智能头盔或智能眼睛展现给用户。
本实施例中,当用户到达某个固定景点时,定位模块100采集用户的位置信息,数据库模块500根据用户的位置信息提取相应的景点介绍信息,经过三维引擎模块700渲染和三维或立体化处理后通过显示模块600展现给用户。同时询问用户是否开启数据采集模块200,如用户选择“是”,则用户可以通过自己的肢体和语言对景点介绍信息的播放进行控制以及和中央控制模块400进行交互,如用户选择“否”,显示模块600按照预先设定的程序播放景点介绍信息。
实施例3
用户在超市购物,到达某个固定位置,如图8所示,系统使用包括以下步骤:
S31:定位模块100采集用户的位置;
S32、询问用户是否开启数据采集模块200,如用户选择“是”,则进入步骤S33,如用户选择“否”,则进入步骤S24;
S33、开启数据采集模块200,采集用户语音信息和肢体信息;
S34、将定位模块100采集的用户位置信息和/或数据采集模块200采集的语音信息与肢体信息传送至数据对比模块300;
S35、数据对比模块300根据数据库模块500相应的数据进行对比,生成控制指令;
S36、数据对比模块300将控制指令发送至中央控制模块400;
S37、中央控制模块400根据控制指令向数据库模块500发送数据传送指令;
S38、数据库模块500根据传送指令将对应的产品信息数据发送至显示模块600;
S39、三维引擎模块700将产品数据信息进行渲染和三维或立体化处理;
S310:将经过步骤S39渲染和立体化处理后的产品数据信息通过移动手持终端设备展现给用户。
本实施例中,当用户到达某个位置,定位模块100采集用户的位置信息,数据库模块500根据用户的位置信息提取相应的产品信息,经过三维引擎模块700渲染和三维或立体化处理后通过显示模块600展现给用户。同时询问用户是否开启数据采集模块200,如用户选择“是”,则用户可以通过自己的肢体和语言对产品信息的播放进行控制以及和中央控制模块400进行交互,如用户选择“否”,显示模块600按照预先设定的程序播放产品信息。
以上说明对本发明而言只是说明性的,而非限制性的,本领域普通技术人员理解,在不脱离权利要求所限定的精神和范围的情况下,可作出的任何修改、变化或等效,都将落入本发明的保护范围之内。

Claims (9)

1.一种基于互联网+的交互、可视化系统,其特征在于:所述系统包括
定位模块:用于采集用户位置信息;
数据采集模块:用于采集用户语音信息和肢体信息;
数据对比模块:用于将所述定位模块采集的用户位置信息和所述数据采集模块采集的用户语音信息或肢体信息与数据库模块相应的数据进行对比,生成控制指令,并将所述控制指令发送至中央控制模块;
中央控制模块:用于接收所述数据对比模块发送的所述控制指令,并根据所述控制指令向数据库模块发送数据传送指令;
数据库模块:用于存储用户位置信息、语音信息和肢体信息,用于存储产品信息数据,用于接收所述中央控制模块发送的所述传送指令并根据所述传送指令将对应的产品信息数据发送至显示模块;
显示模块:用于将所述数据库模块发送的产品信息数据反馈至用户。
2.根据权利要求1所述的一种基于互联网+的交互、可视化系统,其特征在于:所述定位模块包括下述装置之一或组合
GPS定位装置、摄像头和陀螺仪。
3.根据权利要求1所述的一种基于互联网+的交互、可视化系统,其特征在于:所述数据采集模块包括下述装置之一或组合
摄像头、红外扫描装置和麦克风。
4.根据权利要求1所述的一种基于互联网+的交互、可视化系统,其特征在于:所述数据库模块包括
云端数据库模块:用于存储用户位置信息、语音信息和肢体信息,用于存储产品信息数据;
终端移动数据库模块:用于存储由所述云端数据库模块根据所述传送指令发送的产品数据信息。
5.根据权利要求1所述的一种基于互联网+的交互、可视化系统,其特征在于:所述系统进一步包括
三维引擎模块:用于将所述产品信息数据进行渲染,用于将所述产品信息数据进行三维或立体化处理。
6.根据权利要求1~5任意一项所述的一种基于互联网+的交互、可视化系统的使用方法,其特征在于:包括以下步骤:
S1、所述定位模块采集用户位置信息;
S2、询问用户是否开启所述数据采集模块,如用户选择“是”,则进入步骤S3,如用户选择“否”,则进入步骤S4;
S3、开启所述数据采集模块,采集用户肢体信息和肢体信息;
S4、将所述定位模块采集的用户位置信息和/或所述数据采集模块采集的语音信息与肢体信息传送至所述数据对比模块;
S5、所述数据对比模块根据所述数据库模块相应的数据进行对比,生成控制指令;
S6、所述数据对比模块将所述控制指令发送至所述中央控制模块;
S7、所述中央控制模块根据所述控制指令向数据库模块发送数据传送指令;
S8、所述数据库模块根据所述传送指令将对应的产品信息数据发送至显示模块;
S9、所述显示模块将产品信息数据反馈至用户。
7.根据权利要求6所述的一种基于互联网+的交互、可视化系统的使用方法,其特征在于:步骤S1进一步包括以下步骤:
S11、将所述位置信息采集区域划分成若干分区,并对每个分区进行编号;
S12:通过所述定位模块中的数据采集装置采集用户当前的位置状态信息;
S13:将所述位置状态信息与所述编号进行对比,生成所述位置信息。
8.根据权利要求6所述的一种基于互联网+的交互、可视化系统的使用方法,其特征在于:步骤S9进一步包括以下步骤:
S91:将所述产品数据信息进行渲染和三维或立体化处理;
S92:将经过步骤S91渲染和立体化处理后的产品数据信息通过显示设备展现给用户。
9.根据权利要求8所述的一种基于互联网+的交互、可视化系统的使用方法,其特征在于:所述显示设备包括下述装置之一或组合
固定台式电脑、移动手持终端设备、智能眼睛、智能头盔、一体机。
CN201610631319.3A 2016-08-04 2016-08-04 一种基于互联网+的交互、可视化系统及其使用方法 Withdrawn CN107688573A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610631319.3A CN107688573A (zh) 2016-08-04 2016-08-04 一种基于互联网+的交互、可视化系统及其使用方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610631319.3A CN107688573A (zh) 2016-08-04 2016-08-04 一种基于互联网+的交互、可视化系统及其使用方法

Publications (1)

Publication Number Publication Date
CN107688573A true CN107688573A (zh) 2018-02-13

Family

ID=61150942

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610631319.3A Withdrawn CN107688573A (zh) 2016-08-04 2016-08-04 一种基于互联网+的交互、可视化系统及其使用方法

Country Status (1)

Country Link
CN (1) CN107688573A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110908504A (zh) * 2019-10-10 2020-03-24 浙江大学 一种基于用户-展品距离的增强现实博物馆协作交互方法与系统
CN112581631A (zh) * 2020-12-14 2021-03-30 辽宁鼎汉奇辉电子系统工程有限公司 一种服务导台系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102789313A (zh) * 2012-03-19 2012-11-21 乾行讯科(北京)科技有限公司 一种用户交互系统和方法
CN103246351A (zh) * 2013-05-23 2013-08-14 刘广松 一种用户交互系统和方法
US9061204B2 (en) * 2011-02-02 2015-06-23 Outfit7 Limited Interactive game for an electronic device
CN104834375A (zh) * 2015-05-05 2015-08-12 常州恐龙园股份有限公司 基于增强现实的游乐园指南系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9061204B2 (en) * 2011-02-02 2015-06-23 Outfit7 Limited Interactive game for an electronic device
CN102789313A (zh) * 2012-03-19 2012-11-21 乾行讯科(北京)科技有限公司 一种用户交互系统和方法
CN103246351A (zh) * 2013-05-23 2013-08-14 刘广松 一种用户交互系统和方法
CN104834375A (zh) * 2015-05-05 2015-08-12 常州恐龙园股份有限公司 基于增强现实的游乐园指南系统

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110908504A (zh) * 2019-10-10 2020-03-24 浙江大学 一种基于用户-展品距离的增强现实博物馆协作交互方法与系统
CN110908504B (zh) * 2019-10-10 2021-03-23 浙江大学 一种增强现实博物馆协作交互方法与系统
WO2021068356A1 (zh) * 2019-10-10 2021-04-15 浙江大学 一种基于用户-展品距离的增强现实博物馆协作交互方法与系统
US11769306B2 (en) 2019-10-10 2023-09-26 Zhejiang University User-exhibit distance based collaborative interaction method and system for augmented reality museum
CN112581631A (zh) * 2020-12-14 2021-03-30 辽宁鼎汉奇辉电子系统工程有限公司 一种服务导台系统
CN112581631B (zh) * 2020-12-14 2023-12-05 辽宁鼎汉奇辉电子系统工程有限公司 一种服务导台系统

Similar Documents

Publication Publication Date Title
CN109085966B (zh) 一种基于云计算的三维展示系统及方法
CN110716645A (zh) 一种增强现实数据呈现方法、装置、电子设备及存储介质
CN110121379A (zh) 创建、广播和观看3d内容
CN107633441A (zh) 追踪识别视频图像中的商品并展示商品信息的方法和装置
US8547401B2 (en) Portable augmented reality device and method
CN106648082A (zh) 一种模拟真人互动的智能服务设备及方法
CN103190146A (zh) 用于自动地标记内容的内容采集设备与方法
CN107683166A (zh) 用于限制头戴式显示器上的视觉活动的过滤和父母控制方法
CN106993229A (zh) 互动属性展示方法及装置
CN110096155A (zh) 一种基于虚拟现实的业务实现方法和装置
CN103310099A (zh) 一种利用图像捕获和识别技术实现增强现实的方法和系统
CN105704502A (zh) 视频直播交互方法及装置
CN107911737A (zh) 媒体内容的展示方法、装置、计算设备及存储介质
CN112738544B (zh) 直播间互动方法、装置、电子设备及存储介质
CN207882853U (zh) 一种智能信息发布系统
CN113473164A (zh) 直播数据处理方法、装置、计算机设备及介质
CN106572399A (zh) 信息推荐方法、装置、服务器及用户终端
CN109754316A (zh) 产品推荐方法、产品推荐系统及存储介质
CN109754298A (zh) 界面信息提供方法、装置及电子设备
CN107832746A (zh) 表情识别方法及装置
CN105916037A (zh) 一种视频评论信息的处理方法及装置
US20240054714A1 (en) Method and apparatus for adding animation to video, and device and medium
CN112071130A (zh) 基于vr技术的知识教育系统及教育方法
CN111815782A (zh) Ar场景内容的显示方法、装置、设备及计算机存储介质
CN107688573A (zh) 一种基于互联网+的交互、可视化系统及其使用方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20180213